大语言模型应用--AI工程化落地

近几年AI的飞速发展,着实带来了很大的冲击,但是其实现在AI并没有完全的跨界,仍然只是在小圈子内“自嗨”。不过相对于之前已经有了很大的不同了
本文就针对当前的大模型现状,来说一下工程化落地的相关事情,也是随感而发和总结一下

这里不对AI本身做过多的深入,更多聚焦于上层应用

大语言模型概述

当我们谈论大型语言模型时,我们指的是一种能够以类似人类语言的方式”说话”的软件。这些模型非常惊人–它们能够获取上下文并生成不仅连贯而且感觉像是来自真实人类的回复
这些语言模型通过分析大量的文本数据并学习语言使用的模式来工作。它们利用这些模式生成的文本几乎无法与人类所说或写的内容区分开来
如果您曾与虚拟助手进行聊天或与人工智能客户服务代理进行互动,您可能会在不知不觉中与大型语言模型互动过!这些模型有广泛的应用,从聊天机器人到语言翻译到内容创作等

什么是大语言模型

  • 定义:大语言模型(Large Language Model, LLM)是一种预训练的自然语言处理(NLP)模型,通常具有数十亿甚至数千亿的参数,能够理解和生成自然语言文本。一个成熟大语言模型的训练数据是海量的
  • 功能:大语言模型能够执行多种语言任务,如文本分类、情感分析、机器翻译、文本摘要、问答系统等
  • 技术基础:基于变换器(Transformer)架构,利用自注意力机制(Self-Attention)处理序列数据
  • 发展:从早期的RNN、LSTM到现在的BERT、GPT等模型,参数数量和性能不断提升

什么是机器学习

  • 定义:机器学习是人工智能的一个分支,它使计算机系统能够从数据中学习并做出决策或预测,而无需明确编程
  • 类型:包括监督学习、无监督学习、半监督学习和强化学习
  • 应用:广泛应用于图像识别、语音识别、推荐系统、预测分析等领域
  • 关键概念:特征选择、模型训练、过拟合与欠拟合、模型评估等。

什么是深度学习

  • 定义:深度学习是机器学习的一个子集,它使用类似于人脑的神经网络结构,通过多层(深层)的非线性变换来学习数据的复杂模式。
  • 核心组件:神经网络层、激活函数、损失函数、优化算法。
  • 架构:包括卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆网络(LSTM)和变换器(Transformer)等。
  • 应用:在图像和语音识别、自然语言处理、自动驾驶等领域取得了革命性的进展

理解大语言模型

为什么在上面有了大语言模型概述之后,我还需要单独开一个章节来说“理解”大语言模型呢,因为这能让你更好的知道大语言模型是什么东西, 理解它的上限,也能方便我们更好的做应用层
首先可以笼统的讲,机械学习就是找到一个特殊的复杂的“函数”,能够将我们的输入转为期望的输出。比如我们期望输入1,输出5;输入2,输出10,那么这个函数可能就是y=2*x。或者如果我们输入一张猫的图片,我希望它输出“猫”这个字,又或者我输入“hi”它会输出“hello”等等
这其实本质可以看做是一个数学问题,当然实际会比上面的举例复杂很多

历史沿革

1、早期人们总是希望让机器和人一样思考,当时人们主推“鸟飞派”,基于仿生学,就是人们看到鸟飞,就学习它扑棱翅膀能飞起来,那么就希望能让机器也和人一样思考。但是这个效果不是很好,没有“世界知识”(世界知识就是你大脑里默认的众所周知的不用思考的本能认知的内容),比如“水往低处流”,这一类世界知识是海量的,并且难以解决一词多意的问题。总体来说模仿人类的大脑神经过于复杂,单纯用代码和函数很难实现

2、人工智能2.0时代:数据驱动实现“基于统计的人工智能”。为什么在GPT3的横空出世之后,各种大模型如雨后春笋一样的冒出来了?其实大部分公司很早就在研究AI了,但是早期大家都是摸着石头过河,虽然有很多方案和思考,但是都不敢加大投入到梭哈的地步,都是在一个限定的范围内去研究。GPT3的出现让大家看到了某一种方式是可行的,就是使用海量的数据去计算统计,用量变引起质变,于是有了成功案例,大家才知道哦原来这种方式是可行的,于是都开始加大投入走这条路

3、大数据可以让机器智能水平得到飞跃;大量数据的使用,最大意义在于让计算机完成一些过去只有人类才能完成的事情

  • 核心思想:基于大量数据中的统计信息,“训练参数”以拟合结果(本质是“统计”而非“仿生”)
  • 主要优势:随着数据量的积累,系统会持续提升,变的越来越好;
  • 核心要素:“大数据”,大量、多维度、全面的大数据
  • 基于大量、多维度、全面的大数据下的“死记硬背”;
    通过统计人工智能,将“智能问题”转变成了“数据问题”,使得计算
    机得以通过对大数据的学习,解决“不确定问题”

关键

所以问题的关键变成了一个概率问题。当前大模型都是从海量的数据中统计出一个概率,来判断下一个文字或者中间某一段文字最大的概率是什么,然后输出出来。其实本质也并不是生成新的东西,而是推理

比如问他中国的首都是哪里?通过算法提取到关键字是中国的首都是
那么大模型根据海量的数据中计算出 中国的首都是 后面紧跟着的字是北京出现的概率最大,所以就会输出正确的结果

所以训练大模型的数据质量也是非常关键的,同时我们也能差不多联想到大模型的上限

AIGC系统

AIGC,即人工智能生成内容(Artificial Intelligence Generated Content),是一种利用机器学习算法自动生成各种类型内容的技术,包括文本、图像、音频和视频等。AIGC系统通过分析大量数据,学习语言、视觉和音频模式,进而能够创造出新的、与人类创作内容相似甚至无法区分的内容
所有的数字化工作,很可能被“大模型”颠覆
而我们目前的应用层工作,大部分都属于AIGC系统
GPT3.5之后已经大模型已经可以使用工具
• 插件和联网:弥补大模型自身记忆不足,标志着LLM正式开始学习使用工具
• 函数功能: LLM学会调用API来完成复杂任务,这是后端工程师主要工作(给Gorilla指令,会自动调用diffusion等模型,实现画图、对话等多模态任务)
• 让模型“思考”:引导大模型具有逻辑能力,核心在于:“计划 + 记忆 + 工具”

AI工程化项目的落地

其实AI项目的落地也和普通项目一样,一开始的立项核心肯定是要清楚这个项目是为了解决什么核心问题,然后再去扩展思考,再然后才是需求分析,技术选型等。我们针对应用层就不太会设计大模型的研究,一般都是直接调用API或者部署本地开源的大模型

落地的方法

Prompt工程(第一阶段)

稍微接触过AI的可能都知道prompt,在2022-2023年,对AI的初期研究还是以这个为基础,就是怎么样提问能让AI更理解你的意思,注意你的关键点然后给出质量更高的回答
门槛相对来说较低,大部分的大模型应用都是在设计Prompt。能满足一部分需求,取决于基础模型的能力

RAG检索(第二阶段)

RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了检索模型和生成模型的人工智能技术。它通过从知识库或数据库中检索相关信息,并将其与用户查询结合,来增强大型语言模型(LLM)的回答能力。RAG技术可以提高AI应用的准确性和相关性,尤其是在处理特定领域知识或需要最新信息的场景中
RAG的工作原理主要包括两个步骤:

  1. 检索(Retrieval):根据用户的查询,RAG使用检索模型在知识库中搜索并提取最相关的信息或文档。
  2. 生成(Generation):检索到的信息被用于生成模型的输入,与用户查询一起,生成模型据此产生回答或内容。
    RAG技术的优势在于:
    • 知识更新:能够访问最新的信息,而不仅仅局限于模型训练时的知识
    • 减少幻觉:通过外部知识源辅助,减少LLM生成不准确或虚假信息的倾向
    • 数据安全性:允许企业使用私有数据,无需将数据上传到第三方平台
    • 成本效益:相比重新训练或微调大型模型,RAG提供了一种更经济的解决方案
训练特定功能模型(第三阶段)

但是这个门槛较高,对算力、数据、算法都有一定的要求

落地的业务设计

步骤一:构思与探索

目标: 进行可行性验证,根据业务需求设计原型,并构建PromptFlow来测试关键假设

  • 核心输入: 明确的业务目标
  • 关键输出: 验证大型语言模型(LLM)是否能够满足任务需求,确立或否定关键假设
  • 关键行动计划:
    • 明确定义业务用例
    • 选择适合的基础大模型,并准备必要的数据以供后续的微调(SFT)或其他用途
    • 设计并构建PromptFlow,形成并测试可行性假设
步骤二:构建与增强

目标: 在更大范围的数据集上评估解决方案的稳健性,并通过技术如微调(SFT)和检索增强生成(RAG)来增强模型性能

  • 核心输入: 业务目标结合初步方案(步骤一的成果)
  • 关键输出: 一个成熟的业务解决方案,准备部署到生产系统
  • 关键行动计划:
    • 在样本数据上验证PromptFlow的有效性
    • 评估并优化PromptFlow,探索更优的提示(prompt)和工具
    • 若达到预期目标,扩展到更大数据集进行测试,并通过SFT、RAG等技术进一步提升效果
步骤三:持续运营

目标: 确保AIGC系统稳定运行,集成监控和警报系统,实现持续集成和持续部署(CI/CD)

  • 核心输入: 一个能够解决特定问题的AIGC系统
  • 关键输出: 集成了监控、警报系统的生产级程序,以及CI/CD流程。
  • 关键行动计划:
    • 部署AIGC系统
    • 集成监控和警报功能,确保系统能力内嵌于应用之中
    • 确立应用运营机制,包括持续迭代、部署和更新
      通过这一流程,我们确保了从概念验证到生产部署的每一步都是精确、可控,并且以业务目标为导向

Prompt技术

一、主要内容片段的驱动作用

主要内容片段是与指令结合使用的文本基础,能够显著提升指令的有效性。

  1. 主要内容的定义:
    • 主要内容是模型处理或转换的核心文本,通常与指令配合以实现特定目标。
  2. 应用示例:
    • 示例1:提供一段维基百科文本【正文】,并附加指令“请总结上述内容”。
    • 示例2:给出一个包含啤酒信息的表格【正文】,指令为“列出表中所有度数小于6度的啤酒”。

二、主要内容的实现策略

实现主要内容的具体方法,包括:

  • 示例(Example):通过提供完成任务的示例,而非直接指令,让模型自主推断所需执行的操作。
  • 线索(Cue):使用带有线索的说明,引导模型按步骤进行推理,从而得出答案。
  • 模板(Templates):提供带有占位符的可重复使用提示配方,允许根据特定用例进行定制。

三、示例的力量(Example)

通过向模型展示如何根据给定指令生成输出,模型能够推断输出模式,无论是零样本、单样本还是少样本学习。

  • 组成部分:
    • 整体任务描述。
    • 一系列所需输出的示例。
    • 新示例的引导,作为后续任务的起点。
      四、线索的引导作用(Cue)
      通过向大型模型提供线索,引导其按照明确的方向进行逻辑推理,类似于提供步骤公式,帮助模型逐步获得答案。
      五、模板的定制价值(Template)
      模板的价值在于为特定应用领域创建和发布提示库,这些提示模板已经针对应用程序的特定上下文或示例进行了优化。
  • 优化提示:使响应对目标用户群体更加相关和准确。
  • 资源参考:OpenAI API的示例页面提供了丰富的模板资源。
  • 模型角色赋予:通过指定模型身份角色(如系统、用户、助手等),增强模型对任务相关性的理解。

进阶的prompt示例

# 职位描述:数据分析助手
## 角色
我的主要目标是为用户提供专家级的数据分析建议。利用详尽的数据资源,告诉我您想要分析的股票(提供股票代码)。我将以专家的身份,为您的股票进行基础分析、技
术分析、市场情绪分析以及宏观经济分析。
## 技能
### 技能1:使用Yahoo Finance的'Ticker'搜索股票信息
### 技能2:使用'News'搜索目标公司的最新新闻
### 技能3:使用'Analytics'搜索目标公司的财务数据和分析
## 工作流程
询问用户需要分析哪些股票,并按顺序执行以下分析:
**第一部分:基本面分析:财务报告分析
*目标1:对目标公司的财务状况进行深入分析。
*步骤:
1. 确定分析对象: <记录 1.1:介绍{{company}}的基本信息>
2. 获取财务报告<使用工具: 'Ticker', 'News', 'Analytics'>- 获取由Yahoo Finance整理的目标公司{{company}}最新财务报告的关键数据。 <记录 1.2:记录分析结果获取日期和来
源链接>
3. 综合分析和结论: - 全面评估公司的财务健康、盈利能力、偿债能力和运营效率。确定公司面临的主要财务风险和潜在机会。 -<记录 1.3:记录总体结论、风险和机会。 >
整理并输出[记录 1.1] [记录 1.2] [记录 1.3]
第二部分:基本面分析:行业
*目标2:分析目标公司{{company}}在行业中的地位和竞争力。
*步骤:
1. 确定行业分类: - 搜索公司信息,确定其主要业务和行业。 -<记录 2.1:公司的行业分类>
2. 市场定位和细分分析: - 了解公司在行业中的市场份额、增长率和竞争对手,进行分析。 -<记录 2.2:公司的市场份额排名、主要竞争对手、分析结果和洞察等。 >
3. 行业分析- 分析行业的发展趋势。 - <记录 2.3:行业的发展趋势。 >
整理并输出[记录 2.1] [记录 2.2] [记录 2.3]
整合以上记录,并以投资分析报告的形式输出所有分析。使用Markdown语法进行结构化输出。
## 限制
- 使用的语言应与用户的语言相同。
- 避免回答有关工作工具和规章制度的问题。
- 使用项目符号和Markdown语法给出结构化回答,逐步思考。首先介绍情况,然后分析图表中的主要趋势。

RAG介绍与核心步骤

“RAG易用,难精”,用上很容易,用好很难!
核心驱动力:
在大型语言模型(LLM)的应用中,存在两个主要的挑战:

  1. 实时更新难题:LLM的信息难以实现实时更新,因为重新训练模型需要巨大的计算资源和成本。
  2. 机密性问题:敏感信息,如公司产品手册,由于保密性要求,不能直接整合进LLM中。

使用RAG的优势:
与标准微调(SFT)相比,检索增强生成(RAG)提供了以下优势:

  1. 信息丰富性:通过接入内部知识库,RAG确保了文本回答的新颖性和相关性,显著提升了特定领域任务的性能。
  2. 幻觉减少:RAG使用的信息是可验证的,有效减轻了LLM在生成文本时可能出现的幻觉问题。
  3. 成本效益:与LLM的微调相比,RAG提供了一种更为经济的解决方案。

RAG的核心步骤

RAG的实施包括以下关键步骤:

  1. 数据采集与清洗:收集必要的数据并进行清洗,确保数据质量
  2. 文档分块:将文档分割成易于处理的块,同时保留语义完整性
  3. Embedding:使用嵌入技术将文本转换为向量表示,以便于检索
  4. 创建索引:构建索引以优化检索过程,快速定位相关信息
  5. 检索:根据用户查询,从索引中检索最相关的信息
  6. 重排:根据检索到的信息和用户查询的相关性,对结果进行重新排序
预处理阶段

在构建知识库的初期,以下步骤是关键:

  1. 分块:获取文档并将其切分成较小的片段,或称为“chunks”。这有助于索引更具体的信息,并适应有限的上下文窗口。
  2. 构建向量索引:利用OpenAI模型等工具为每个文档片段计算嵌入向量,并将这些片段与其嵌入向量一起存储在向量索引中,为高效的检索打下基础。
运行阶段

当系统处于活跃状态时,以下操作定义了其运行机制:

  • 基于Vector DB的相似性检索:
    • 接收到查询或指令后,计算其嵌入向量。利用向量数据库执行相似性搜索,找出语义上与查询接近的文档。
    • 对检索到的文档进行排名和整理,考虑上下文窗口限制,并构建将要发送到语言模型的提示。
创建知识库核心步骤
  1. 构建向量数据库:
    • 向量数据库专门设计用于存储、管理和搜索嵌入向量,与传统数据库不同,它存储文档的数值表示形式,便于AI系统处理。
  2. 从文本到嵌入:
    • 将文本分块,并转换为向量嵌入,为存储和检索优化数据。
检索与向量搜索核心步骤
  1. 检索:
    • 系统快速定位索引中满足条件的文档的过程,包括关键字搜索、语义搜索、向量搜索,以及它们的混合形式
  2. 向量相似度:
    • 在向量搜索中,根据嵌入模型计算查询向量与数据库中向量的相似度
  3. 搜索索引(召回):
    • 构建索引以存储嵌入,实现在数据库中快速检索最相似的文档块
  4. 重新排序(排序):
    • 根据相关性对搜索结果进行排序,确保最相关的信息被优先输入到语言模型中进行进一步处理

RAG的核心关键点

  1. 元数据在搜索中的关键作用
    元数据是优化搜索结果的有力工具,提供确切信息以辅助搜索过程:
    • 日期:用于优先检索最新或特定时间段的文档。
    • 标签/类别:通过标签或类别筛选或排序结果,确保内容与查询高度相关。
    • 来源/作者:依据来源或作者的权威性来提升搜索结果的相关度。
      元数据的整合可显著提升搜索的准确性和相关性。
  2. 元数据合成
    在元数据缺失的情况下,可通过LLM的预处理对齐生成,以补充元数据信息。
  3. 关键词搜索的重要性
    关键词搜索是对语义相似度搜索的重要补充,特别是在寻找专有名称或特定短语时。此方法确保了文档包含用户查询的确切信息。
  4. API和插件在检索中的应用
    除了传统的搜索技术,API调用可以获取并集成相关数据,增强LLM的上下文窗口。例如,GPT插件作为API的新兴标准,可以通过LangChain或Semantic Kernel等工具轻松集成,提供强大的搜索和检索功能。
  5. 排名与集合编译
    鉴于上下文窗口大小的限制,需对检索到的文档进行精细的排名和选择。通过预处理或后处理技术,如摘要生成或文本语义组合,确保信息的适量和适宜性。
  6. 排序的重要性
    对检索结果进行排序是确保信息相关性和准确性的关键步骤。
  7. 格式与元数据
    LLM对数据格式极为敏感,特别是当需要精确结构时。使用JSON或YAML等格式,可以为LLM提供清晰的结构化内容指示。
  8. 权衡因素:速度、成本、质量
    在RAG实施过程中,速度、成本和准确性(质量)是必须综合考量的关键因素。合理的权衡可以确保在有限资源下实现最优的搜索和生成效果。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/867504.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【MYSQL】InnoDB引擎为什么选可重复读作为默认隔离级别

InnoDB引擎为什么选可重复读作为默认隔离级别 一般的DBMS系统&#xff0c;默认都会使用读提交&#xff08;Read-Comitted&#xff0c;RC&#xff09;作为默认隔离级别&#xff0c;如Oracle、SQL Server等&#xff0c;而MySQL却使用可重复读&#xff08;Read-Repeatable&#x…

alphazero学习

AlphaGoZero是AlphaGo算法的升级版本。不需要像训练AlphaGo那样&#xff0c;不需要用人类棋局这些先验知识训练&#xff0c;用MCTS自我博弈产生实时动态产生训练样本。用MCTS来创建训练集&#xff0c;然后训练nnet建模的策略网络和价值网络。就是用MCTSPlayer产生的数据来训练和…

JVM的基础,class文件的理解(2)

本文是“深入学习JVM”系列的第二篇文章&#xff0c;主要介绍class文件的数据结构。 我是蚊子码农&#xff0c;欢迎各位的点赞、关注和收藏&#xff0c;有了你们的激励&#xff0c;我会带来更好的作品。 一、前言 class文件&#xff0c;通常由Java编译器编译得到&#xff0c;…

【JVM 的内存模型】

1. JVM内存模型 下图为JVM内存结构模型&#xff1a; 两种执行方式&#xff1a; 解释执行&#xff1a;JVM是由C语言编写的&#xff0c;其中有C解释器&#xff0c;负责先将Java语言解释翻译为C语言。缺点是经过一次JVM翻译&#xff0c;速度慢一点。JIT执行&#xff1a;JIT编译器…

ubuntu设置开启自动挂载sftp

1. 前言 与其说 ubuntu 开启自动挂载 sftp, 更确切的说应该是 nautilus (ubuntu上默认的文件管理器) 开机自动挂载 sftp。 因为 这里即使选择永远记住&#xff0c;开机也不会自动挂载 sftp 2.设置方法 gnome-session-properties #开机只启动设置命令设置 gio mount sftp…

经典双运算放大器LM358

前言 LM358双运放有几十年的历史了吧&#xff1f;通用运放&#xff0c;很常用&#xff0c;搞电路的避免不了接触运放&#xff0c;怎么选择运放&#xff0c;是工程师关心的问题吧&#xff1f; 从本文开始&#xff0c;将陆续发一些常用的运放&#xff0c;大家选型可以参考&#…

浪潮信息携手算力企业为华东产业集群布局提供高质量算力支撑

随着信息技术的飞速发展&#xff0c;算力已成为推动数字经济发展的核心力量。近日&#xff0c;浪潮信息与五家领先的算力运营公司在南京正式签署战略合作协议&#xff0c;共同加速华东地区智算基础设施布局&#xff0c;为区域经济发展注入新动力。 进击的算力 江苏持续加码智算…

springboot三层架构详细讲解

目录 springBoot三层架构0.简介1.各层架构1.1 Controller层1.2 Service层1.3 ServiceImpl1.4 Mapper1.5 Entity1.6 Mapper.xml 2.各层之间的联系2.1 Controller 与 Service2.2 Service 与 ServiceImpl2.3 Service 与 Mapper2.4 Mapper 与 Mapper.xml2.5 Service 与 Entity2.6 C…

Exploting an API endpoiint using documentation

HTTP request methods https://developer.mozilla.org/en-US/docs/Web/HTTP/Methods 第一步:burp抓包刷新页面 httphistory中只能看到两个记录,可以看下Response,是HTML页面,说明这里有HTML页面 ,但是没有发现特定的API接口。 第二步:用户登录 转到用户登录的功能点处…

Nacos源码分析:心跳机制、健康检查、服务发现、AP集群

文章目录 心跳机制与服务健康检查NacosClient端NacosServer端NacosServer端健康检查 服务发现NacosClient端NacosServer端 AP集群从源码启动集群心跳设计原理各节点状态同步服务实例数据同步服务实例状态变动同步 心跳机制与服务健康检查 官方文档&#xff1a;发送某个实例的心…

基于GWO灰狼优化的多目标优化算法matlab仿真

目录 1.程序功能描述 2.测试软件版本以及运行结果展示 3.核心程序 4.本算法原理 4.1灰狼优化算法原理 4.2 多目标优化问题(MOP)的帕累托最优解 4.3 基于GWO的多目标优化算法 5.完整程序 1.程序功能描述 基于GWO灰狼优化的多目标优化算法matlab仿真&#xff0c;目标函数…

【HarmonyOS NEXT】鸿蒙如何让List组件不满一屏时,还要能滑动和回弹

当List组件不满一屏时&#xff0c;还要能滑动和回弹,就向系统设置 - 移动网络 页面一样 List设置如下属性&#xff1a; .edgeEffect(EdgeEffect.Spring, {alwaysEnabled: true}) edgeEffect edgeEffect(value: EdgeEffect, options?: EdgeEffectOptions) 设置边缘滑动效果。…

Linux多进程和多线程(六)进程间通信-共享内存

多进程(六) 共享内存共享内存的创建 示例: 共享内存删除 共享内存映射 共享内存映射的创建解除共享内存映射示例:写入和读取共享内存中的数据 写入: ### 读取: 大致操作流程: 多进程(六) 共享内存 共享内存是将分配的物理空间直接映射到进程的⽤户虚拟地址空间中, 减少数据在…

c_各个unsigned int 和 int的取值范围

bool, uint8_t, uint16_t, uint32_t, uint64_t, int8_t, int16_t, int32_t, int64_t 取值范围分别是什么&#xff1f; 定义形式&#xff1a; typedef unsigned char uint8_t; typedef unsigned short uint16_t; typedef unsigned int uint32_t; typedef unsigned long uint64_…

Java | Leetcode Java题解之第217题存在重复元素

题目&#xff1a; 题解&#xff1a; class Solution {public boolean containsDuplicate(int[] nums) {Set<Integer> set new HashSet<Integer>();for (int x : nums) {if (!set.add(x)) {return true;}}return false;} }

C#开发的自定义提示和对话框窗体 - 开源研究系列文章

上次开发了《LUAgent服务器端工具》&#xff0c;然后就开发了自定义的提示和对话框窗体&#xff0c;因为这个是无边框窗体&#xff0c;所以不使用默认的MessageBox了&#xff0c;界面美观并且用户体验更好一些。然后就写了此文&#xff0c;让其他读者能够使用或者复用此类库的代…

非对称加密算法原理与应用2——RSA私钥加密文件

作者:私语茶馆 1.相关章节 (1)非对称加密算法原理与应用1——秘钥的生成-CSDN博客 第一章节讲述的是创建秘钥对,并将公钥和私钥导出为文件格式存储。 本章节继续讲如何利用私钥加密内容,包括从密钥库或文件中读取私钥,并用RSA算法加密文件和String。 2.私钥加密的概述…

git pull拉取显示Already up-to-date,但文件并没有更新

1、问题&#xff1a; 使用git pull拉取远程仓库代码&#xff0c;显示更新成功&#xff08;Already up-to-date&#xff09;&#xff0c;但是本地代码没有更新 这是因为本地有尚未提交的更改&#xff0c;和远程代码有冲突导致无法更新 2、解决方法&#xff1a; 可以使用git s…

axios的使用,处理请求和响应,axios拦截器

1、axios官网 https://www.axios-http.cn/docs/interceptors 2、安装 npm install axios 3、在onMouunted钩子函数中使用axios来发送请求&#xff0c;接受响应 4.出现的问题&#xff1a; &#xff08;1&#xff09; 但是如果发送请求请求时间过长&#xff0c;回出现请求待处…

进程控制-exec函数

让父子进程来执行不相干的操作 能够替换进程地址空间的代码.text段 执行另外的程序&#xff0c;不需要创建额外的的地址空间 当前程序中调用另外一个应用程序 指定执行目录下的程序 int execl(const char *path, const char *arg&#xff0c;/* (char *) NULL */); /* pat…