前言
Text2SQL是指将自然语言转化为类SQL查询语句,使得用户的查询文本可以直接实现和数据库交互,本文介绍一种以BERT为基础模型,通过模板填充来实现的Text2SQL算法和产品化。
内容摘要
- Text2SQL任务说明
- 模板填充的思路
- 条件列选择子模型搭建(where col)
- 条件合并类型子模型搭建(and,or)
- 条件值匹配子模型搭建(col,value)
- 排序条件子模型搭建
- limit子模型搭建
- 整体模型pipeline
- 基于Streamlit快速产品化
Text2SQL任务说明
本文的任务是将用户的查询语言自动翻译为ElasticSearch的DSL查询语句,然后以DSL语句查询ElasticSearch返回结果。业务场景为将上市公司的标签存储在ElasticSearch中,通过自然语言挑选出对应的股票,实现“一句话选股”,该产品在市面上的APP已经广泛实现,本文是对其的一个简单功能复现。
市面上Text2SQL类似的产品
注意本文需要转化的自然语言任务仅为挑选出企业,并且展示出所需要的列,不设计复杂的聚合和聚合函数,比如groupby,max,sum不在本次的考虑范围内。
模板填充的思路
模板填充生成查询语句的思路类似于完型填空,不论是SQL还是DSL查询语句,任何查询都有固定部分,那把不固定的部分遮蔽掉,单独预测遮蔽掉的关键词即可补全SQL,我们以ElasticSearch的DSL举例,模板填充的形式如下
DSL模板填充
无底色部分代表固定的DSL形式,有底层部分代表可变的关键词部分,不同的颜色代表不同的DSL模块:
- must:筛选条件的组合形式,must代表且,should代表或
- term, range:筛选条件的比较类型,term是相等匹配,range是值大小比对
- col:筛选条件用到的列,以及select需要的列
- gte:比较符,gte代表大于等于
- desc:排序类型,desc代表降序
- size:limit条件,代表最大输出多少数据
因此模板填充的任务就是把可变的关键词预测出来,从而拼接出最终的DSL语句。
条件列选择子模型搭建(where col)
第一步是要预测出条件列,只有先预测出条件列,后续才能进一步完成列的条件匹配和值匹配。我们采用BERT的句子对的方式,将每一列和用户输入的查询语句拼接起来,采用[CLS]位置作为表征,预测二分类是否匹配。
BERT句子对匹配预测
举例如果有100个候选列,则一条查询语句需要预测100条样本,每条样本是一个二分类,最终可以预测出多个列或者一个列,也可以没有列。
条件合并类型子模型搭建(and,or)
条件合并类型预测是预测出有多个条件时的组合类型,且,或,甚至没有,是一个三分类问题。只需要对原始的查询语句使用BERT的[CLS]预测即可
BERT预测条件组合类型
条件值匹配子模型搭建(col,value)
条件值匹配是一个三元组的预测,涉及元素为col列,value值,和比较符,col列是条件列选择子模型搭建(where col)该任务的输出,及条件值匹配是条件列选择的后续模型,由于col列已经被上游任务预测出来了,所以本任务的目标是先抽取出value值,并且搭配比较符做匹配。
在此我们将col列分为real数值列和type类型枚举列,因为这两种情况对应的value值和比较符都不一样。
- real数值列:需要通过配置提前获得预测出的select列的类型为real,此时比较符设置为“>”,“<”,“=”,“!=”,“>=”,“<=”一共六种情况,value值一定是数字,因此通过正则表达式加中文单位工具转换可以抽取出来
一个使用Python脚本抽取输入中的数字的案例如下
import re
import cn2andef parse(text: str):res = []tmp = re.findall("[\d一二三四五六七八九十百千万亿零.]+", text)for t in tmp:value = ""try:value = cn2an.cn2an(t, "strict")except:try:value = cn2an.cn2an(t, "normal")except:try:value = cn2an.cn2an(t, "smart")except:passif value:value = int(value) if int(value) == value else valueres.append(value)return resif __name__ == '__main__':print(parse("手里有三个苹果,单价0.56元一个,总共一百2十三万元"))# 抽取结果 [3, 0.56, 1, 1230000]
- type类型列:需要通过配置提前获得预测出的select列的类型为type,此时value值为数据库中该字段的枚举值全集,比如该列为省份,则需要穷举出所有的省份做匹配,比较符为"=“,”!="。
基于以上约定需要对样本进行构造,即穷句出所有情况,以real列为例,所有select列和所有抽取出的value,再叠加所有可能的比较符做二分类预测,同样采用BERT的句子对做表征,例如
构造col,value匹配模型
排序条件子模型搭建
排序模型需要预测出order by的列,并且预测出是升序asc还是倒序desc,同样通过配置提前预知需要排序的所有列,并且将其和升序和倒序拼接在一起输入BERT进行句子对预测,例如
排序模型的BERT样本输入
同样以[CLS]位置来预测二分类是否匹配。
limit子模型搭建
该模块是排序条件模型的下游任务,将条件值匹配抽取到的数字和排序条件列做穷举,同样采用BERT做句子对分类,模型示意图如下
limit模型输入
同样以[CLS]位置来预测二分类是否匹配。
整体模型pipeline
基于以上方案一共有五个BERT模型,分别是where列预测,op组合条件预测,select列和值的匹配,是否有排序条件,limit值预测,五个模型的pipeline流程图如下
整体预测pipeline
在最后一部需要整个5个模型的输出改造成对应查询语句,以ElasticSearch的DSL为例,一个改造实现如下
def parse_to_dsl(self, op_combine, match, order_op, limit):query = {"query": {"bool": {}},"_source": ["ent_name", "score"],"sort": []}if order_op:label_name = order_op[:-4]order_name = order_op[-4:]label_code = self.name_to_label_code[label_name]query["sort"].append({f"{label_code}": {"order": "desc" if order_name == "降序排名" else "asc"}})query["_source"].append(label_code)else:query["sort"].append({"score": {"order": "desc"}})if limit != -1:query["size"] = limitop_dsl = "must"if op_combine == "or":op_dsl = "should"query["query"]["bool"][op_dsl] = []sub_queries = {}for m in match:cond, op, val = re.split("(=|!=|>=|<=|>|<)", m)label_code = self.name_to_label_code[cond]query["_source"].append(label_code)c_type = self.cols_type[cond]# TODO 子查询,记录命中数sub_query = {"query": {}}if c_type == "real" and op not in ("=", "!="):range_op = {"range": {f"{label_code}": {}}}if op == ">":range_op["range"][f"{label_code}"]["gt"] = valelif op == ">=":range_op["range"][f"{label_code}"]["gte"] = valelif op == "<=":range_op["range"][f"{label_code}"]["lte"] = valelif op == "<":range_op["range"][f"{label_code}"]["lt"] = valquery["query"]["bool"][op_dsl].append(range_op)sub_query["query"] = range_opelif c_type in ("real", "type") and op == "=":term_op = {"term": {f"{label_code}": {"value": val}}}query["query"]["bool"][op_dsl].append(term_op)sub_query["query"] = term_opelif c_type in ("real", "type") and op == "!=":bool_op = {"bool": {"must_not": [{"term": {f"{label_code}": {"value": val}}}]}}query["query"]["bool"][op_dsl].append(bool_op)sub_query["query"] = bool_opsub_queries[m] = json.dumps(sub_query, ensure_ascii=False)return sub_queries, json.dumps(query, ensure_ascii=False)
本质上先定义了一个基础DSL模板,将要填充的槽留空,基于模型的输出解析改造成一个个子查询,再汇总为最终的DSL语句。
基于Streamlit快速产品化
以Streamlit框架为例,快速不属于个一句话选股的页面功能,实现如下
import streamlit as st
import pandas as pdname = st.text_input('请输入您的股票查询条件', max_chars=100, help='最大长度为100字符')if st.button('查询'):parse_cond, df_info, order_op, limit = query(name)style = """<style>.box {border: 1px solid #ddd;padding: 6px 10px;margin-top: 10px;background-color: pink;color:#000;display:inline-block;margin-right:6px;}</style>"""st.markdown(style, unsafe_allow_html=True)conds = []for k, v in parse_cond.items():conds.append("<span class='box'>{}</span>".format(k + "(" + str(v) + ")"))if order_op:conds.append("<span class='box'>{}</span>".format(order_op + f"前{limit}" if limit != -1 else order_op))st.markdown("".join(conds), unsafe_allow_html=True)hit = df_info[0]df = pd.DataFrame(df_info[1]).rename(columns=name_to_label_code)df.insert(0, '企业名称', df.pop('企业名称'))df.insert(1, '综合指数', df.pop('综合指数'))st.write("共计命中:{}条企业".format(hit))st.dataframe(df)
其中query中包装了BERT模型的pipeline,其中streamlit弹出web应用如下
查询页面
如果检索条件,比如筛选出注册资本金大于15亿,属于广东珠海的上市企业,按照指数倒序排列,输入后检索结果如下
Text2SQL结果
Text2SQL不仅输出了最终符合条件的企业,也统计出了相关的子条件,以及子条件命中的企业数,最终符合要求的企业数,从解析的条件来看,模型结果完全正确。
如何系统的去学习大模型LLM ?
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料
包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
阶段1:AI大模型时代的基础理解
- 目标:了解AI大模型的基本概念、发展历程和核心原理。
- 内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践
- L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
- 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
- 内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例
- L2.2 Prompt框架
- L2.2.1 什么是Prompt
- L2.2.2 Prompt框架应用现状
- L2.2.3 基于GPTAS的Prompt框架
- L2.2.4 Prompt框架与Thought
- L2.2.5 Prompt框架与提示词
- L2.3 流水线工程
- L2.3.1 流水线工程的概念
- L2.3.2 流水线工程的优点
- L2.3.3 流水线工程的应用
- L2.4 总结与展望
阶段3:AI大模型应用架构实践
- 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
- 内容:
- L3.1 Agent模型框架
- L3.1.1 Agent模型框架的设计理念
- L3.1.2 Agent模型框架的核心组件
- L3.1.3 Agent模型框架的实现细节
- L3.2 MetaGPT
- L3.2.1 MetaGPT的基本概念
- L3.2.2 MetaGPT的工作原理
- L3.2.3 MetaGPT的应用场景
- L3.3 ChatGLM
- L3.3.1 ChatGLM的特点
- L3.3.2 ChatGLM的开发环境
- L3.3.3 ChatGLM的使用示例
- L3.4 LLAMA
- L3.4.1 LLAMA的特点
- L3.4.2 LLAMA的开发环境
- L3.4.3 LLAMA的使用示例
- L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
- 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
- 内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
学习计划:
- 阶段1:1-2个月,建立AI大模型的基础知识体系。
- 阶段2:2-3个月,专注于API应用开发能力的提升。
- 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
- 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓