大模型落地实践:同花顺大模型技术应用及优化

这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

众所周知,大模型参数量大,通用能力强,综合性能好。但在同花顺业务场景中最初使用大模型的时候,发现用大模型的效果与传统方法差距不大,甚至有时候逊于原先传统的方法。所以最初在业务角度并不够重视,然而近期随着大模型技术的快速发展,我们也在逐步尝试将大模型在业务中落地,目前大模型在自然语言处理相关的业务里都取得了比传统模型更优的效果,下面详细介绍相关工作。

图 1

图 1

同花顺业务场景中的大模型

1. 问答

图 2

图 2

同花顺的问答业务主要是“同花顺问财”,主要场景在同花顺APP语音助手、问财APP端、问财Web端等。业务形式是将用户输入的问句解析为 condition (比如股票标的、指标、时间),然后从同花顺的后台海量的金融数据中取数并生成回答、表格等(如图 2 右侧所示)。

问句涉及的领域一般领域包括常见的征信市场、股市、基金市场、债券,也会包括一些宏观业务等。目前问财的用户每日问句数量大概在 1000 万左右,累计不同问句数量约 5 亿。用户量也很大,大约 300+万。这个问句量和用户量在问答系统中应该算非常大的。

图 3

图 3

问财对话系统在大模型的应用上有几个难点。

首先,它偏重金融业务知识,并且对于时效性要求很高。 这里特别说明一下“时效性”的问题。之前很多典型的问答系统一般会有这类常识问题,比如“世界最高的山是什么?”“中国的首都是哪里?”,但在问财里碰到的用户提问往往是“今天的股价”,而提到股价就涉及到“今天股价的变化情况”;或者用户问“某个公司的业绩如何”等等,这里就涉及到时间维度,因为每个公司年报、半年报或季度报发布的时间点不同,如果用户在前一天问,系统回答的是年报的结果;如果用户在今天问,系统可能就要回答季报的内容了,所以时效性问题非常重要,要保证用户获得最新的信息。

第二个难点是精确性问题。现在很多大模型的知识是通用的、持久不变的知识,但在问财系统里的知识在不同情况下会有一些变化,内含了一些金融逻辑。 如果出现给用户返回的结果错误,就可能会导致很严重的问题,比如给用户返回了数据错误,就可能导致用户投资或者其他决策上的偏差,造成财产损失。

总体来说,问答是比较难做的一个业务方向。因此我们之前采取了比较保守策略,使用了一套需要大量人工的规则系统。常常有人说,科研界和工业界之间有巨大的鸿沟,科研界全是深度学习,到了工业界全是用规则来做。确实在我们的业务模型里,规则占比非常大,也是因为涉及用户财产问题,技术上会比较保守。

下面具体介绍问答系统里大模型应用的经验和取得的成果。

图 4

图 4

图 4 右侧是问财系统的框架示意图,其中“通用语义识别”之前是基于大量规则做的,投入人力非常大,标注人员有几十人,做了十年左右。这套规则系统准确率 90%,覆盖语义 2 万多,整体效果基本能满足业务需求。但它面临的问题是,1)这套系统积累了很多年才达到目前的效果,而长尾问题需要花非常长的时间来解决。2)新的知识不断地融入涌入和迭代,全靠规则来处理,会有非常大的问题。

所以从前两年开始我们采用深度学习模型来做通用语义识别。图 4 有一个通用语义识别的小例子,输入问句是:“董事长持股大于 50 万”,解析时主干识别需要识别出“持有”和“大于”,并且要识别出“大于”这个语义是包含“持有”的,即“(大于(持有))”,语义角色需要识别出“持股”语义主体是“董事长”,“大于”的“客体”是“50 万”。

目前通用语义识别方面大模型的效果已经慢慢显现了。**前**两年我们采用的是常规深度学习模型 TextCNN 准确率为 88%,后来和澜舟合作使用了孟子Mengzi 轻量化预训练模型,从图 4 左下角表格看,效果有显著的提升。 考虑到线上耗时问题,我们使用的是参数较少的模型来做,比如孟子BERT-base准确率可以达到 94.16%,Electra-small 模型提升了 4% 是因为做了数据迭代,加了更多数据,进一步提升了效果,后续孟子BERT模型再迭代数据也会有更多提升。

而领域语义识别主要是针对特定的金融领域的识别,涉及到 NER、linking 和一些谓词推理。 我们现在对NER,用得比较多的是时间、机构、地址、人名和数量 5 种。比如,输入是“马云在杭州参观了同花顺 2 次”,就需要将“今天”、“同花顺”、“杭州”、“马云”、“2 次”等实体识别出来;而对部分实体词,需要linking到数据库中的标准词上,如“同花顺”需要 linking 到上市公司“浙江核新同花顺网络信息股份有限公司”,但“同花顺”可能会出现在纸牌类游戏或者其他场景,因此需要在这个金融场景下,优化 linking。

图 5

图 5

以 NER 任务为例,我们尝试用常规的深度模型 LSTM + CRF 串联的 F1 值只有 92% 左右,使用大模型之后,F1 值可以达到 96~97%,提升了4~5% 。如果使用更大规模的模型,效果还有更多提升空间,但是考虑到经济问题和服务耗时与性能问题,目前还是用的参数量较小的 BERT-base 等。

2. 对话

图 6

图 6

上面的问答系统主要是取数问题,而对话系统主要涉及多引擎的对话分发、跨引擎的多轮对话异常流程调度等对话管理技术,行业内一般做单一的任务型对话或者开放型对话,但是我们的业务场景往往要求先做意图识别和分发,再同时支持任务型和开发型的对话。

目前同花顺业务中的对话机器人分为云端版和企业版,分别满足 C 端和 B 端的客户需求。C 端主要是智能投顾的业务中的“问财助手”,B 端主要是来电助理、数字人客服、智能外呼机器人等产品。

C 端的智能投顾业务通过对话技术,根据用户画像(投资目标及风险承受能力)提供投资建议。首先要拿到用户的背景知识,比如他个人的仓位盈亏,然后给出一些支撑压力位指标和投资建议。其中有一个“槽位”的概念, “槽位”是人工事前定义,我们从投资角度定义了 16 种槽位,包括投资标的、意向操作、盈亏状态等等。所以当用户问“贵州茅台基本面怎么样?”,我们首先要通过槽位抽取的模型识别出“贵州茅台”是“投资标的”,“基本面”是“目的知识点”。目前我们用了四层中文 BERT 模型,槽位可用度大概是 87% 左右。

B 端智能营销机器人是通过主动外呼的方式,向潜在客户进行产品营销,产品涉及房地产、运营商、银行理财产品的营销,需要识别用户回复的意图、并利用领域知识进行合理回复。这里需要使用意图识别、追问识别、答案排序等模型。以用户意图识别为例,需要引入领域知识,在用户接通电话以后,我们会根据用户的意图做 “肯定/拒绝/在忙/暂时不需要”等14 种任务分类,使用 3 层 RoBERTa 模型 ACC 准确率为 91%,使用 24 层 RoBERTa 可以提升两个点左右。

B 端智能客服机器人业务,我们对接了中国移动的西安电信、陕西移动等运营商的客服机器人,同样是接听用户来电,先做用户的意图和语义识别,但在客服业务中用户的语义会比较固定,我们梳理之后有几百种,所以我们会先做语义相似句子匹配,再选择匹配度高的句子进行回复。我们对比了 2 层 BERT、2 层 RoBERTa、12 层 RoBERTa,F1 值分别是 84.01%、84.66%、87.68%,从成本角度看,2 层 RoBERTa 更实用。

3. 信息抽取

信息抽取应用场景主要是知识图谱构建和金融数据库构建两个方面。

我们业务中几乎所有数据组织形式都是以图谱为基础,金融知识图谱在风控、投研、投顾、银行理赔等等场景都非常重要,业务往往需要通过图谱梳理一些关系,比如用户询问公司与法人关系以判断一些关联风险,然后做推理决策。所以金融知识图谱对我们来说是非常大的课题,目前我们已经做了宏观经济图谱、A股大盘图谱、A 股个股事件图谱等。

图谱的数据来源依赖信息抽取,抽取的数据源包括研报、新闻资讯等,从研报和新闻资讯中自动抽取因果关系的三元组(因-影响-果) ,如图 7 所示。

图 7

图 7

这些因果关系的三元组抽取、事件论元抽取,都是通过大模型做的。早前使用的是 Char Embedding + LSTM,F1 不到 70%,使用我们自己研发的 BERT 模型之后 F1 达到了 77%,使用澜舟的孟子Mengzi-Fin-base 模型之后 F1 提升到了 78.5%。

在知识图谱之上,我们需要进一步优化的方向是金融数据库的构建。同花顺 iFind 金融数据库是业内最大的金融数据库之一,很多金融机构基于 iFind 数据库做投研、投顾。

图 8

图 8

图 8 右侧是一个具体的例子,一般来说上市公司的诉讼对金融投资有重要的风险提示作用。我们需要从诉讼公告中抽取执行情况、违规案例说明、对公司影响等信息。绿色的部分是违规案例说明,还需要进一步从违规案例说明里抽取诉讼详情,包括原告、被告、诉讼请求、违约金等信息。

对此我们尝试了不同的模型(图 8 表格),**常规深度模型 word2vec F1 值为 83.15%,我们还尝试了 MacBERT、澜舟的孟子**Mengzi等模型,在优化增强(比如数据增强和 loss 优化)的条件下,澜舟孟子Mengzi 的 F1 值可以达到 96.67%。

4. 舆情监控

图 9

图 9

我们有一个舆情系统叫“同花顺企洞察”,ToC 版本叫“快查”,用户范围比较广,公司、个人、监管机构等都会用来做参考,如政府会用于招商引资和精准营销。

舆情系统的一个重要的环节是“机构名称的识别”,抽象出来是“长文本NER任务”(如上图所示),机构名称抽取的难点是除了标准名称还有很多简称、别名或者其他叫法,一开始我们用 LSTM+ CRF 的效果不佳,F1 不到 70%,之后结合知识图谱+大模型,目前 F1 可以达到 86.4%,符合上线要求。

舆情监控业务中还有新闻资讯风险识别场景,新闻资讯正面还是负面可能会影响股价,如何第一时间告诉投资人新闻的正面/负面是比较大的课题。

 图 10

图 10

业内一般做法是人工识别、打标签,这样的效率比较低,而新闻资讯的时效性比较高,我们的做法是机器先打标签,然后人工识别校验一次。这里的较难的关键点是除了正负面标签之外,还需要对负面信息进一步分析,提示风险在哪里。

比如图 10 的例子,判断为负面后,我们需要做风险归类,“法人变更”到底是管理风险还是政策风险导致的法人变更,这就需要进一步判断。之前我们用常规模型来做的时候准确率最多到 59%,目前使用大模型,考虑到本文较长且性能要求较高,因此使用参数较少的 tinyBERT, 准确率是 69.45%,后续还需要做更多优化工作。

大模型的优化

大量研究表明通过调整预训练任务、使用更多训练数据、使用领域语料等方式,可以对原始的大规模预训练模型做进一步优化,达到更好的效果。比如通过增加训练语料、延长训练时间、移除“next sentence”任务、动态 mask 等优化方法,可以获得比 BERT 效果更好的模型;在 BERT 基础上,通过使用领域数据(DAPT)或任务数据(TAPT)进行第二阶段预训练,可以使模型在下游任务上表现得比 BERT更好。

1. Continue-Train

为了进一步提升大模型在实际业务中的效果,同花顺与澜舟科技合作,引入孟子Mengzi 模型中的技术 ,针对大模型进行 Continue-Train 训练,让模型更适用于金融相关的 NLP 任务 ,主要有以下几点优化:

  • 词级别的MLM:使用中文分词器预分词,以词为单位进行 MLM,可以使模型更好的学习到整个词的语义表示,以及它跟上下文其他词之间的关联,进而增强模型的语义表征能力。这样能够使得预训练模型学习到更复杂的语法特征和知识;
  • 改进预训练任务:通过增加 POS 序列标注任务,使得模型能够学会深层次的语言学信息;通过加入SOP(Sentence Order Prediction)任务,使得模型更好的学习句子之间的句对信息;
  • 更高效地利用硬件:我们整体用户量非常大,对话业务的日活达到百万级,资讯和研报抽取也是百万级别的,因此我们对于性能非常关注。目前通过增加 Gradient Accumulation 降低了通讯成本;同时引入 LAMB Optimizer,避免多机多卡环境下大 batch size 导致的收敛变差的问题。

图 11

图 11

从图 11 能看出,Continue-Train 方面实际优化效果错很不错,比如长文本阅读理解有 3% 左右的提升。在这方面,我们也希望后续和澜舟科技及学术界一起探 索。

2. 模型轻量化

我们大部分的服务其实本质是一个免费的流量型服务,为其他的业务导流,所以对资源的使用要求做到轻量化,提高性能、减少耗时。大模型的参数增加会带来效果的提升,但是在实际应用的经济角度考虑,宁可损失一些效果,尽量减少对资源的占用,所以我们投入了很大的精力做“模型轻量化”工作。

图12

图12

图 12 中有两个实际业务的例子,我们对模型预测耗时有非常严格的要求,因为响应时间太慢会导致用户体验变差,一般来说会要求不能超过 100ms,有部分模型甚至要求耗时在 20ms~50ms。所以我们用了知识蒸馏、剪枝、量化等常见的轻量化技术。比如“用户问句相似问生成”这个任务,我们用到了知识蒸馏技术,将 10 层以上的大模型蒸馏成 3 层的小模型,性能上会有很大的提升,同时保证准确率不会有大幅下降的情况,GPT2-chinese-12 层单样本 CPU 生成耗时约为 1s,蒸馏为 3 层之后,耗时降为 100ms。

我们在模型轻量化上还有一个探索方向是利用 past key values 加速推理。

图 13

图 13

如上图所示,对采用 DECODE 进行生成推断的模型,在预测下一个词时,需要执行 masked 注意力机制:每个 token 需要和其左侧的所有 token 计算 attention,因此,对于长度为 n 的序列,需要做 n(n-1)/2 次向量的生成和计算。

图 14

图 14

如图 14 所示,由于下一个 token 向量的计算与其左侧 token 的计算路径一致,因此可以保存左侧 token 的计算结果并传入当前 token 的计算,这样每个 token只 需完成一次向量的计算,共计 n 次向量的生成和计算,从而节省大量时间,而且这个加速方法不会带来其他影响,不会使指标下降。

这个技术目前主要应用在对话问句改写相关业务,包括用户的澄清问句改写。举个例子,用户问“最低点的股票是什么”,这里面可能有很多种意思,比如“股价创新低的股票”、“股价即将涨的股票”,我们需要对此做一个预测。在使用加速推理技术后,单样本 CPU生成耗时从 600ms 减少到了 100ms 左右。

总结

大模型技术在同花顺业务中的应用基本都有比较好的通用性,并且带来了比较好的性能提升,我们也希望在医疗、法律、教育等领域的子公司业务中推广,同时和澜舟科技以及学术界的老师们合作,把大模型用得更好,谢谢大家。

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
在这里插入图片描述

篇幅有限,部分资料如下:

👉LLM大模型学习指南+路线汇总👈

💥大模型入门要点,扫盲必看!
在这里插入图片描述
💥既然要系统的学习大模型,那么学习路线是必不可少的,这份路线能帮助你快速梳理知识,形成自己的体系。
在这里插入图片描述

👉大模型入门实战训练👈

💥光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

👉国内企业大模型落地应用案例👈

💥《中国大模型落地应用案例集》 收录了52个优秀的大模型落地应用案例,这些案例覆盖了金融、医疗、教育、交通、制造等众多领域,无论是对于大模型技术的研究者,还是对于希望了解大模型技术在实际业务中如何应用的业内人士,都具有很高的参考价值。 (文末领取)
在这里插入图片描述
💥《2024大模型行业应用十大典范案例集》 汇集了文化、医药、IT、钢铁、航空、企业服务等行业在大模型应用领域的典范案例。

在这里插入图片描述

👉LLM大模型学习视频👈

💥观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。 (文末领取)
在这里插入图片描述

👉640份大模型行业报告👈

💥包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
在这里插入图片描述

👉获取方式:

这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/55968.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python数据分析工具OpenCV用法示例

Python数据分析工具OpenCV是一个强大的计算机视觉库,提供了丰富的图像处理算法和功能,支持多种编程语言,包括Python、C、C#等。以下是OpenCV在Python中的一些常见用法示例: 一、图像读取、显示与保存 读取图像 import cv2 im…

2024年制冷与空调设备安装修理证模拟考试题库及制冷与空调设备安装修理理论考试试题

题库来源:安全生产模拟考试一点通公众号小程序 2024年制冷与空调设备安装修理证模拟考试题库及制冷与空调设备安装修理理论考试试题是由安全生产模拟考试一点通提供,制冷与空调设备安装修理证模拟考试题库是根据制冷与空调设备安装修理最新版教材&#…

2024年最新苹果iOS证书申请创建App详细图文流程

iOS 证书设置指南: 对于开发者来说,在没有Mac电脑或对Xcode等开发工具不熟悉的情况下,如何快速完成IOS证书制作和IPA文件提交至开发者中心一直是一个难题。但是现在,有了初雪云提供的极简工具,您可以轻松实现这两个任…

分布式数据库环境(HBase分布式数据库)的搭建与配置

分布式数据库环境(HBase分布式数据库)的搭建与配置 1. VMWare安装CentOS7.9.20091.1 下载 CentOS7.9.2009 映像文件1.2启动 VMware WorkstationPro,点击“创建新的虚拟机”1.3在新建虚拟机向导界面选择“典型(推荐)”1…

springBoot集成nacos注册中心以及配置中心

一、安装启动nacos 访问&#xff1a;http://127.0.0.1:8848/nacos/index.html#/login 二、工程集成nacos 1、引入依赖 我这里搭建的父子工程哈&#xff0c;在子工程引入 <dependencies><!-- SpringBoot Web --><dependency><groupId>org.sp…

【Golang】关于Gin框架请求参数的获取

✨✨ 欢迎大家来到景天科技苑✨✨ &#x1f388;&#x1f388; 养成好习惯&#xff0c;先赞后看哦~&#x1f388;&#x1f388; &#x1f3c6; 作者简介&#xff1a;景天科技苑 &#x1f3c6;《头衔》&#xff1a;大厂架构师&#xff0c;华为云开发者社区专家博主&#xff0c;…

基于springboot的网上服装购物商城系统

基于springboot的网上服装购物商城系统 开发语言&#xff1a;Java 框架&#xff1a;springboot JDK版本&#xff1a;JDK1.8 服务器&#xff1a;tomcat7 数据库&#xff1a;mysql 5.7 数据库工具&#xff1a;Navicat11 开发软件&#xff1a;idea 源码获取&#xff1a; &#x…

【conda环境打包】ubuntu的conda环境打包导出方法 conda-pack

【conda环境打包】ubuntu的conda环境打包导出方法 conda-pack 1.准备工作2.解压3.后续处理参考文献 1.准备工作 安装conda-pack pip install conda-pack激活要被打包的环境&#xff0c;打包环境之前 先激活要打包的环境 conda activate 被打包的环境打包命令 conda pack --…

Java 输入与输出(I\O)之字节缓冲流【BufferedInputStream】【BufferedOutputStream】详解

缓冲流是Java I/O中的一个重要概念&#xff0c;它可以提高文件读写的性能。 由于磁盘的IO处理速度远低于内存的读写速度。 为了提高文件读写性能&#xff0c;我们可以使用缓冲流。缓冲流使用内存缓冲区&#xff0c;可以一次性读取或写入大量数据&#xff0c;从而减少与磁盘的交…

将图片转换为PDF:Python初学者指南

前言 最近,我去进行了一次入职体检,第二天在体检医院的公众号中查看了体检报告。但遗憾的是,医院没有提供下载功能,而公司需要的是PDF格式的报告。市面上很多工具或软件都能将图片转换为PDF格式,但大多数都要求开会员,而我不常用这些工具,因此没必要为此花钱。出于囊中羞…

华为OD机试真题---关联子串

华为OD机试中的“关联子串”题目是一个考察字符串处理和算法理解的经典问题。以下是对该题目的详细解析&#xff1a; 一、题目描述 给定两个字符串str1 和 str2&#xff0c;如果字符串 str1 中的字符&#xff0c; 经过排列组合后的字符串中只要有一个是 str2 的子串&#xff…

oracle和hive之间关于sql的语法差异及转换

目录 前言 1、oracle中的&#xff08;&#xff09;写法 1.1、区分左右连接 1.2、hive中的写法 a、最常用 b、副表带条件 c、只显示过滤条件的数据 2、select中含有子查询 3、oracle的decode函数 4、oracle的时间转化 5、oracle的trunc函数 6、oracle instr函数 7…

vscode中每个打开的文件都显示在一个单独的标签页中

版本&#xff1a;1.94 实现步骤&#xff1a; 1、打开设置 File-》Preferences-》Settings 2、具体设置 2.1、在配置中搜索 workbench.editor.showTabs 设置为multiple。 2.2、在配置中搜索 workbench.editor.enablePreview 取消勾选。 根据这个功能的说明&#xff0c;在…

24.10.20(换根哈希)

星期一&#xff1a; 阴间场 cf渡劫成功&#xff0c;拿下三题&#xff0c;终于上蓝&#x1f973;&#x1f973;&#x1f973; 贴 cf round978 div2 C cf传送门 答案取到n1但初始化没到n1&#xff0c;wa了一发&#xff0c;很烦&#x1f63f;…

100. UE5 GAS RPG 显示范围魔法的攻击范围

在这一篇里&#xff0c;我们将制作一个范围魔法&#xff0c;释放魔法时&#xff0c;我们将在鼠标拾取位置绘制一个魔法光圈&#xff0c;用于显示技能释放时攻击的范围&#xff0c;然后再次点击可以释放技能。 创建贴花类 魔法范围标识的光圈&#xff0c;我们采用贴花实现&…

利用飞腾派进行OpenCV开发

实验目标&#xff1a; 完成飞腾平台OpenCV开发。 实验大纲&#xff1a; Mat数据结构加载、显示、保存图像读写像素RGB图像分离彩色图转灰度图 Mat数据结构 Mat是一个类&#xff0c;由两个数据部分组成&#xff1a;矩阵头(大小,通道,数据类型等)和数据块(像素 值)。创建示例…

SQL Server-导入和导出excel数据-注意事项

环境&#xff1a; win10&#xff0c;SQL Server 2008 R2 之前写过的放在这里&#xff1a; SqlServer_陆沙的博客-CSDN博客 https://blog.csdn.net/pxy7896/category_12704205.html 最近重启ASP.NET项目&#xff0c;在使用sql server导出和导入数据时遇到一些问题&#xff0c;特…

LLAMA2入门(一)-----预训练

Llama 2 是预训练和微调的LLM系列&#xff0c;Llama 2 和 Llama 2-Chat 模型的参数规模达到 70B。Llama 2-Chat 模型专门为对话场景进行了优化。 这是一个系列的文章&#xff0c;会分别从LLAMA2的预训练&#xff0c;微调&#xff0c;安全性等方面进行讲解。 1.数据来源 数据…

SDRAM控制器的设计与验证(野火学习笔记)

SDRAM发展至今已历经五代&#xff0c;具有单位存储量大、高数据带宽、读写速度快、价格相对便宜等优点。同时&#xff0c;作为内存条中不可缺少的有一部分&#xff0c;SDRAM在计算机领域也占有一席之地。 &#xff08;SDRAM的内容以及操作时序比较复杂&#xff0c;本文已经尽可…

域7:安全运营 第17章 事件的预防和响应

第七域包括 16、17、18、19 章。 事件的预防和响应是安全运营管理的核心环节&#xff0c;对于组织有效识别、评估、控制和减轻网络安全威胁至关重要。这一过程是循环往复的&#xff0c;要求组织不断总结经验&#xff0c;优化策略&#xff0c;提升整体防护能力。通过持续的监测、…