AI推介-大语言模型LLMs论文速览(arXiv方向):2024.01.01-2024.01.10

1.Pre-trained Large Language Models for Financial Sentiment Analysis

标题:用于金融情感分析的预训练大型语言模型

author:Wei Luo, Dihong Gong

date Time:2024-01-10

paper pdf:http://arxiv.org/pdf/2401.05215v1

摘要
金融情感分析是指将金融文本内容划分为情感类别(如正面、负面和中性)。在本文中,我们重点关注财经新闻标题的分类,由于缺乏大量的训练样本,这是一项具有挑战性的任务。为了克服这一困难,我们建议使用预训练的大型语言模型(LLMs)[1, 2, 3]来解决这一问题。LLM 由大量文本语料库训练而成,在文本理解方面具有优势,可以有效地适应特定领域的任务,同时只需要很少的训练样本。特别是,我们利用监督微调(SFT)技术对开源的 Llama2-7B 模型(2023)进行了调整[4]。实验评估表明,即使使用 7B 模型(对于 LLM 而言,该模型相对较小),我们的方法也明显优于之前的先进算法。

2.Can ChatGPT Rival Neural Machine Translation? A Comparative Study

标题:ChatGPT 能否媲美神经机器翻译?比较研究

author:Zhaokun Jiang, Ziyin Zhang

date Time:2024-01-10

paper pdf:http://arxiv.org/pdf/2401.05176v1

摘要
受利用大型语言模型进行翻译的兴趣日益浓厚的启发,本文评估了以 ChatGPT 为代表的大型语言模型(LLMs)与主流神经机器翻译(NMT)引擎在将中文外交文本翻译成英文方面的能力对比。具体来说,我们通过四个自动化指标以及基于错误类型学和六个分析标准的人工评估,考察了 ChatGPT 和 NMT 引擎的翻译质量。我们的研究结果表明,在不同的提示和 NMT 系统下,ChatGPT 的自动度量结果相似,而当 ChatGPT 获得有关翻译任务的示例或上下文信息时,人工注释者倾向于给予 ChatGPT 明显更高的分数。自动化指标与人工评估维度之间的配对相关性结果微弱且不显著,这表明两种翻译质量评估方法之间存在差异。这些发现为了解 ChatGPT 作为功能强大的机器翻译的潜力,以及提示工程对其性能的影响提供了宝贵的见解。

3.InFoBench: Evaluating Instruction Following Ability in Large Language Models

标题:InFoBench:评估大型语言模型中的指令跟踪能力

author:Yiwei Qin, Kaiqiang Song, Yebowen Hu, Wenlin Yao, Sangwoo Cho, Xiaoyang Wang, Xuansheng Wu, Fei Liu, Pengfei Liu, Dong Yu

date Time:2024-01-07

paper pdf:http://arxiv.org/pdf/2401.03601v1

摘要
本文介绍了分解要求遵循率(DRFR),这是一种用于评估大型语言模型(LLM)遵循指令能力的新指标。DRFR 将复杂的指令分解为更简单的标准,便于详细分析 LLM 是否符合任务的各个方面,从而弥补了当前方法的不足。除此指标外,我们还介绍了 InFoBench 基准,该基准包含 500 种不同指令和 2250 个分解问题,涉及多个约束类别。我们的实验将 DRFR 与传统评分方法进行了比较,并探索了注释来源,包括人类专家、众包工作者和 GPT-4。实验结果表明 DRFR 具有更高的可靠性,而且 GPT-4 作为一种经济高效的注释器也非常有效。使用该框架对几种高级 LLM 进行的评估揭示了它们的优势和需要改进的地方,特别是在复杂的指令遵循方面。这项研究提供了一种新的衡量标准和基准,为未来的 LLM 开发和评估提供了启示。

4.Human-Instruction-Free LLM Self-Alignment with Limited Samples

标题:有限样本下的无人工指令 LLM 自对齐

author:Hongyi Guo, Yuanshun Yao, Wei Shen, Jiaheng Wei, Xiaoying Zhang, Zhaoran Wang, Yang Liu

date Time:2024-01-06

paper pdf:http://arxiv.org/pdf/2401.06785v1

摘要
将大型语言模型(LLMs)与人类价值进行对齐是 LLM 从业人员的一项重要任务。目前的对齐技术有几个局限性:(1)需要大量注释数据;(2)需要大量人工参与;(3)缺乏持续改进的系统机制。在这项工作中,我们研究了在样本有限(例如小于 100 个)的情况下将 LLM 对齐到一个新的领域。我们提出了一种算法,可以在没有主动人工参与的情况下迭代地对齐 LLM。与现有算法不同的是,我们的算法既不依赖于人工编写的指令,也不依赖于标记的奖励,从而大大减少了人工参与。此外,我们的算法还能不断自我改进配准。其关键思路是首先检索与目标领域相关的高质量样本,并将其作为上下文学习示例来生成更多样本。然后,我们利用自生成的样本对 LLM 进行迭代微调。我们的研究表明,我们的方法可以释放 LLM 的自我泛化能力,在近乎零人工监督的情况下完成配准。我们在安全性、真实性和指令遵循三个基准上测试了我们的算法,结果表明我们的算法在对齐、领域适应性和可扩展性方面表现出色。

5.DocGraphLM: Documental Graph Language Model for Information Extraction

标题:DocGraphLM:用于信息提取的文档图语言模型

author:Dongsheng Wang, Zhiqiang Ma, Armineh Nourbakhsh, Kang Gu, Sameena Shah

date Time:2024-01-05

paper pdf:http://arxiv.org/pdf/2401.02823v1

摘要
丰富可视化文档理解(VrDU)技术的进步使得信息提取和问题解答成为可能。目前出现了两种架构–受 LLM 启发的基于变换器的模型和图神经网络。在本文中,我们介绍了 DocGraphLM,这是一种将预训练语言模型与图语义相结合的新型框架。为此,我们提出了 1) 表示文档的联合编码器架构,以及 2) 重建文档图的新型链接预测方法。DocGraphLM 使用收敛的联合损失函数预测节点之间的方向和距离,该函数优先考虑邻域恢复,并降低远处节点检测的权重。我们在三个 SotA 数据集上进行的实验表明,采用图特征后,IE 和 QA 任务的性能得到了持续改善。此外,我们还报告称,在训练过程中,尽管图特征仅通过链接预测来构建,但采用图特征加快了学习过程的收敛速度。

6.Blar-SQL: Faster, Stronger, Smaller NL2SQL

标题:Blar-SQL:更快、更强、更小的 NL2SQL

author:José Manuel Domínguez, Benjamín Errázuriz, Patricio Daher

date Time:2024-01-04

paper pdf:http://arxiv.org/pdf/2401.02997v1

摘要
大型语言模型(LLMs)在自然语言到 SQL 任务(NL2SQL)领域已经获得了相当高的知名度。在本研究中,我们展示了任务分解如何使 LLM 在数据库理解和查询生成方面受益匪浅,从而用 SQL 查询回答人类的问题。 我们对开源模型(特别是 Llama-2 和 Code Llama)进行了微调,将 2 个不同的模型组合在一起,每个模型都被指定专注于两个任务中的一个,以便利用每个模型的核心能力进一步提高最终 SQL 查询的准确性。 我们提出了一个新框架,将模式划分为若干块,以便在有限的上下文中容纳更多信息。我们的结果与 GPT-4 所取得的结果不相上下,同时比 GPT-4 小 135 倍、快 90 倍、便宜 100 多倍。

7.Are LLMs Robust for Spoken Dialogues?

标题:LLM 是否适合口语对话?

author:Seyed Mahed Mousavi, Gabriel Roccabruna, Simone Alghisi, Massimo Rizzoli, Mirco Ravanelli, Giuseppe Riccardi

date Time:2024-01-04

paper pdf:http://arxiv.org/pdf/2401.02297v1

摘要
大型预训练语言模型在不同的下游任务(包括对话状态跟踪和端到端响应生成)中表现出了最先进的性能。然而,大多数面向任务对话的公开可用数据集和基准都集中在书面对话上。因此,所开发模型对口语交互的鲁棒性尚不可知。在这项工作中,我们在 DSTC11 测试集上评估了面向任务的口语对话 LLM 的性能。由于缺乏合适的口语对话数据集,我们使用最先进的 ASR 引擎自动转录了口语对话开发集。我们描述了 ASR 错误类型及其分布,并在一个大型对话数据集中模拟了这些错误。我们报告了经过微调的 GPT-2 和 T5 模型分别在应答生成和对话状态跟踪这两个子任务中的内在(易错性)和外在(人类评估)性能。结果表明,LLM 默认情况下对口语噪声不具有鲁棒性,但是,在适当的口语 TOD 数据集上对此类模型进行微调/训练,可以获得更加鲁棒的性能。

8.Using LLM to select the right SQL Query from candidates

标题:使用 LLM 从候选中选择正确的 SQL 查询

author:Zhenwen Li, Tao Xie

date Time:2024-01-04

paper pdf:http://arxiv.org/pdf/2401.02115v1

摘要
文本到 SQL 模型可以生成候选 SQL 查询列表,而最佳查询往往就在候选列表中,但并不在列表的顶部。有效的重新排序方法可以从候选列表中选择正确的 SQL 查询,从而提高模型的性能。以往关于代码生成的研究可以自动生成测试用例,并利用它们对候选代码重新排序。然而,文本到 SQL 的自动测试用例生成是一个研究不足的领域。我们提出了一种自动生成测试用例的方法,该方法首先生成一个数据库,然后使用 LLM 预测基本事实,即基本事实 SQL 查询在该数据库上的预期执行结果。为了降低 LLM 预测的难度,我们进行了实验,寻找为 LLM 生成简单数据库的方法,并设计了易于理解的提示。基于我们的测试用例生成方法,我们提出了一种从候选列表中选择正确 SQL 查询的重新排序方法。给定候选列表后,我们的方法可以生成测试用例,并根据这些测试用例的通过率和生成概率对候选列表重新排序。在 Spider 验证数据集上的实验结果表明,应用我们的重排序方法后,一些最先进模型的性能可以提高 3.6%。

9.Understanding LLMs: A Comprehensive Overview from Training to Inference

标题:了解 LLM:从训练到推理的全面概述

author:Yiheng Liu, Hao He, Tianle Han, Xu Zhang, Mengyuan Liu, Jiaming Tian, Yutong Zhang, Jiaqi Wang, Xiaohui Gao, Tianyang Zhong, Yi Pan, Shaochen Xu, Zihao Wu, Zhengliang Liu, Xin Zhang, Shu Zhang, Xintao Hu, Tuo Zhang, Ning Qiang, Tianming Liu, Bao Ge

date Time:2024-01-04

paper pdf:http://arxiv.org/pdf/2401.02038v2

摘要
随着 ChatGPT 的推出,用于处理下游任务的大型语言模型(LLM)的使用率大幅提高。在这种情况下,人们越来越关注具有成本效益的训练和部署。LLM 的低成本培训和部署是未来的发展趋势。本文回顾了与这一新兴趋势相适应的大型语言模型训练技术和推理部署技术的发展。关于训练的讨论涉及多个方面,包括数据预处理、训练架构、预训练任务、并行训练以及与模型微调相关的内容。在推理方面,论文涉及模型压缩、并行计算、内存调度和结构优化等主题。论文还探讨了 LLM 的使用情况,并对其未来发展提出了见解。

10.Text2MDT: Extracting Medical Decision Trees from Medical Texts

标题:Text2MDT:从医学文本中提取医学决策树

author:Wei Zhu, Wenfeng Li, Xing Tian, Pengfei Wang, Xiaoling Wang, Jin Chen, Yuanbin Wu, Yuan Ni, Guotong Xie

date Time:2024-01-04

paper pdf:http://arxiv.org/pdf/2401.02034v1

摘要
医疗决策过程的知识可以建模为医疗决策树(MDT),这对于建立临床决策支持系统至关重要。然而,目前的 MDT 构建方法严重依赖费时费力的人工标注。在这项工作中,我们提出了一项新任务–Text2MDT,探索从医学指南和教科书等医学文本中自动提取 MDT。我们将 MDT 的形式规范化,并在医学专家的参与下创建了一个有注释的中文文本到 MDT 数据集。我们针对文本到 MDT 任务研究了两种不同的方法:(a) 端到端框架,该框架仅依靠 GPT 式大语言模型(LLM)指令调整来生成所有节点信息和树结构。(b) 管道框架,将 Text2MDT 任务分解为三个子任务。在我们的 Text2MDT 数据集上进行的实验表明(a) 基于 LLM(7B 参数或更大)的端到端方法显示出良好的效果,并成功超越了管道方法。(b) 思维链(COT)提示方法(\cite{Wei2022ChainOT})可以提高微调 LLMs 在 Text2MDT 测试集上的性能。© 基于编码器预训练模型的轻量级流水线方法的性能可与模型复杂度小两个量级的 LLM 相媲美。我们的 Text2MDT 数据集开源于 \url{https://tianchi.aliyun.com/dataset/95414},源代码开源于 \url{https://github.com/michael-wzhu/text2dt}。

11.Can AI Be as Creative as Humans?

标题:人工智能能像人类一样有创造力吗?

author:Haonan Wang, James Zou, Michael Mozer, Anirudh Goyal, Alex Lamb, Linjun Zhang, Weijie J Su, Zhun Deng, Michael Qizhe Xie, Hannah Brown, Kenji Kawaguchi

date Time:2024-01-03

paper pdf:http://arxiv.org/pdf/2401.01623v4

摘要
创造力是社会进步和创新的基石。随着先进的生成式人工智能模型的兴起,这些模型能够完成曾经只属于人类创造力的任务,因此研究人工智能的创造潜力对于其负责任的发展和应用来说势在必行。在本文中,我们从理论上证明了人工智能可以像人类一样具有创造力,前提是它能正确地适应人类创造者生成的数据。因此,关于人工智能创造力的争论被简化为其是否有能力适应足够数量的数据的问题。为了得出这一结论,本文首先引入了一个名为 "相对创造力 "的新概念,以解决定义创造力的复杂性问题。我们并不试图对创造力进行普遍定义,而是将重点转移到人工智能是否能与假想人类的创造能力相匹配。方法论上的转变带来了对人工智能创造力的统计量化评估,即 “统计创造力”(Statistical Creativity)。这一概念将人工智能的创造能力与特定人类群体的创造能力进行统计比较,有助于从理论上探索人工智能的创造潜力。我们的分析表明,通过对大量条件数据进行拟合,而不将生成条件边缘化,人工智能可以作为一个假想的新创造者出现。这种创造者拥有与人类创造者同等的创造能力。在理论研究成果的基础上,我们讨论了及时条件自回归模型中的应用,为评估大型语言模型(LLM)等人工智能生成模型的创造能力提供了一种实用方法。此外,这项研究还提供了一个可操作的培训指南,将创造力的理论量化与实际模型培训结合起来。

12.LLM Maybe LongLM: Self-Extend LLM Context Window Without Tuning

标题:LLM Maybe LongLM:无需调整即可自扩展 LLM 上下文窗口

author:Hongye Jin, Xiaotian Han, Jingfeng Yang, Zhimeng Jiang, Zirui Liu, Chia-Yuan Chang, Huiyuan Chen, Xia Hu

date Time:2024-01-02

paper pdf:http://arxiv.org/pdf/2401.01325v2

摘要
众所周知,LLM 不能很好地泛化到长度大于训练序列长度的长上下文。这给在推理过程中使用 LLMs 处理长输入序列带来了挑战。在这项工作中,我们认为 LLM 本身具有处理长上下文的内在能力,无需微调。为了实现这一目标,我们提出了 “自我扩展”(SelfExtend)方案,通过构建两级注意力信息来扩展 LLM 的上下文窗口:分组注意力和邻近注意力。分组注意力捕捉的是相距较远的标记之间的依赖关系,而邻居注意力捕捉的是指定范围内相邻标记之间的依赖关系。这两级注意力是在推理过程中根据原始模型的自我注意力机制计算出来的。只需对代码稍作修改,我们的 SelfExtend 就能毫不费力地扩展现有 LLM 的上下文窗口,而无需进行任何微调。我们在多个基准上进行了综合实验,结果表明我们的 SelfExtend 可以有效地扩展现有 LLM 的上下文窗口长度。代码见 \url{https://github.com/datamllab/LongLM}。

13.A Comprehensive Survey of Hallucination Mitigation Techniques in Large Language Models

标题:大型语言模型中减少幻觉技术的全面调查

author:S. M Towhidul Islam Tonmoy, S M Mehedi Zaman, Vinija Jain, Anku Rani, Vipula Rawte, Aman Chadha, Amitava Das

date Time:2024-01-02

paper pdf:http://arxiv.org/pdf/2401.01313v3

摘要
随着大型语言模型(LLMs)在编写类人文本方面的能力不断提高,一个关键的挑战依然存在,那就是它们容易产生幻觉,生成看似真实但毫无根据的内容。可以说,幻觉问题是将这些功能强大的 LLM 安全地部署到影响人们生活的实际生产系统中的最大障碍。要在实际环境中广泛采用 LLM,在很大程度上有赖于解决和减轻幻觉问题。与专注于有限任务的传统人工智能系统不同,LLM 在训练过程中接触了大量在线文本数据。虽然这使它们能够表现出令人印象深刻的语言流畅性,但这也意味着它们能够从训练数据的偏差中推断信息,误解模棱两可的提示,或修改信息使其与输入信息表面一致。当我们依赖语言生成能力进行敏感应用(如总结医疗记录、财务分析报告等)时,这种情况就会变得非常令人担忧。本文全面介绍了为减少 LLM 中的幻觉而开发的 32 种技术。其中著名的有检索增强生成(Lewis 等人,2021 年)、知识检索(Varshney 等人,2023 年)、CoNLI(Lei 等人,2023 年)和 CoVe(Dhuliawala 等人,2023 年)。此外,我们还引入了一个详细的分类法,根据数据集利用率、常见任务、反馈机制和检索器类型等各种参数对这些方法进行分类。这种分类有助于区分专为解决 LLM 中的幻觉问题而设计的各种方法。此外,我们还分析了这些技术所面临的挑战和固有的局限性,为今后研究解决 LLM 领域中的幻觉和相关现象奠定了坚实的基础。

14.Fine-tuning and Utilization Methods of Domain-specific LLMs

标题:特定领域 LLM 的微调和利用方法

author:Cheonsu Jeong

date Time:2024-01-01

paper pdf:http://arxiv.org/pdf/2401.02981v2

摘要
最近发布的预训练大型语言模型(LLMs)获得了相当大的关注,但有关微调和使用特定领域 LLMs 的研究仍然很少。本研究探讨了微调和利用特定领域 LLM 的方法,重点介绍了 LLM 的发展趋势、基础模型和特定领域预训练方法。本研究以金融领域为重点,详细介绍了数据集选择、预处理、模型选择以及对金融领域 LLM 微调至关重要的注意事项。针对金融数据的独特性,该研究探讨了特定领域词汇表的构建以及安全和监管合规方面的注意事项。在 LLM 微调的实际应用中,研究概述了在金融领域生成特定领域 LLM 的程序和实施。本研究举例说明了各种金融案例,包括股票价格预测、金融新闻情感分析、自动文档处理、研究、信息提取和客户服务提升。研究探讨了 LLM 在金融领域的潜力,指出了局限性,并提出了改进方向,为未来研究提供了宝贵的见解。最终,它推动了商业领域自然语言处理技术的发展,建议各行业在金融服务中积极利用 LLM。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/697025.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从零学习Linux操作系统第二十八部分 shell脚本中的执行流控制

一、什么是执行流、循环执行流 执行流:改变执行顺序,使之更方便操作者 循环执行流:根据脚本是执行流再某一个状态下进行循环执行,进行多次执行后再往下走(for语句) for语句 作用 为循环执行动作 for语句…

opencv判断灰化情况

目的 先说说理论: 在图像处理中,用RGB三个分量(R:Red,G:Green,B:Blue),即红、绿、蓝三原色来表示真彩色,R分量,G分量,B分…

LeetCode LCR 055.二叉搜索树迭代器

实现一个二叉搜索树迭代器类BSTIterator ,表示一个按中序遍历二叉搜索树(BST)的迭代器: BSTIterator(TreeNode root) 初始化 BSTIterator 类的一个对象。BST 的根节点 root 会作为构造函数的一部分给出。指针应初始化为一个不存在…

vue实现拖拽(vuedraggable)

实现效果: 左侧往右侧拖动,右侧列表可以进行拖拽排序。 安装引用: npm install vuedraggable import draggable from vuedraggable 使用: data数据: componentList: [{groupName: 考试题型,children: [{componentType: danxua…

SQLite 的使用

SQLite 是一个轻量级、自包含和无服务器的关系型数据库管理系统(RDBMS),广泛应用于嵌入式系统、移动应用程序和小中型网站。它易于创建、需要的配置较少,并且提供了用于管理和操作数据的强大功能集。本文,我们将带领你…

电路设计(26)——交通信号灯的multism仿真

1.功能要求 使用数字芯片设计一款交通信号灯,使得: 主干道的绿灯时间为60S,红灯时间为45S 次干道的红灯时间为60S,绿灯时间为45S 主、次干道,绿灯的最后5S内,黄灯闪烁 使用数码管显示各自的倒计时时间。 按…

【CMake】(5)搜索文件

方法1:使用aux_source_directory命令 aux_source_directory命令用于查找指定目录下的所有源文件,并将文件列表存储到一个变量中。这种方法简单易用,适合于源文件位于单一目录下的情况。 基本语法如下: aux_source_directory(<dir> <variable>)<dir>:…

openssl3.2 - 编译 - zlib.dll不要使用绝对路径

文章目录 openssl3.2 - 编译 - 编译时的动态库zlib.dll不要使用绝对路径概述测试zlib特性在安装好的目录中是否正常笔记70-test_tls13certcomp.t80-test_cms.t对测试环境的猜测从头再编译测试安装一次测试一下随便改变位置的openssl用到zlib时是否好使测试一下随便改变位置的op…

Docker Nginx 负载均衡搭建(服务宕机-配置高可用) - 附(Python案例,其它语言同理)

目录 一 . 概要 1. 什么是负载均衡 2. 负载均衡有哪些优势&#xff1f; &#xff08;1&#xff09;应用程序可用性 &#xff08;2&#xff09;应用程序可扩展性 &#xff08;3&#xff09;应用程序安全 &#xff08;4&#xff09;应用程序性能 3 . Nginx负载均衡调度策…

Java高级 / 架构师 场景方案 面试题(二)

1.双十一亿级用户日活统计如何用 Redis快速计算 在双十一这种亿级用户日活统计的场景中&#xff0c;使用Redis进行快速计算的关键在于利用Redis的数据结构和原子操作来高效地统计和计算数据。以下是一个基于Redis的日活统计方案&#xff1a; 选择合适的数据结构&#xff1a; …

核密度分析

一.算法介绍 核密度估计&#xff08;Kernel Density Estimation&#xff09;是一种用于估计数据分布的非参数统计方法。它可以用于多种目的和应用&#xff0c;包括&#xff1a; 数据可视化&#xff1a;核密度估计可以用来绘制平滑的密度曲线或热力图&#xff0c;从而直观地表…

【DOCKER】随手记

目录 1. 安装1.1 LINUX1.2 Windows 2. 常用配置2.1 普通权限运行2.2 开机自启动2.3 3 更换Docker镜像源2.4 更改默认存储位置 3. 显示带UI的软件4. 基于DOCKER的服务4.1 FTP4.2 Portainer4.3 Watchtower4.4 SiYuan4.5 GitLab4.5.1 创建容器4.5.2 克隆路径问题4.5.3 获取默认密码…

win系统下安装php8.3版本并配置环境变量的详细教程

本篇文章主要讲解在win系统下安装和配置php8.3版本&#xff0c;并配置环境变量的详细教程。 日期&#xff1a;2024年2月22日 作者&#xff1a;任聪聪 一、下载php8.3版本包 php8.3版本官方下载地址&#xff1a;https://windows.php.net/download#php-8.3 步骤一、打开下载地址…

【Unity】Unity与安卓交互

问题描述 Unity和安卓手机进行交互&#xff0c;是我们开发游戏中最常见的场景。本教程将从一个简单的例子来演示一下。 本教程需要用到Android Studio2021.1.1 1.Android Studio新建一个工程 2.选择Empty Activity 然后点击Next 3.点击Finish完成创建 4.选择File-New-New Mo…

【python 3.9.18】windowns安装版

因为这个版本官方未提供&#xff0c;所以需要自己编译出来&#xff0c;其他没有的版本可以依据下面的进行生成一个exe也可行。 成品&#xff1a; https://gitee.com/greatLong/python-3.9.18/tree/master/python-3.9.18/PCbuild/amd64 1、环境准备 需要使用到 这里面还需要选…

【MATLAB GUI】 5. 图像处理菜单(菜单编辑器)

看B站up主freexyn的freexyn编程实例视频教程系列36Matlab GUI的学习笔记 任务要求设计一个图像处理菜单&#xff0c;实现图像的打开导入、灰度处理、存储等功能 修改过文件名&#xff0c;所以运行的时候会有一点点报错&#xff0c;但是不影响运行 打开工具栏下边的菜单编辑器…

开窗Window和WindowAll的区别

在 Apache Flink 流处理框架中&#xff0c;窗口操作是处理流数据的重要部分。Flink 提供了时间窗口、计数窗口等多种窗口类型&#xff0c;用于将数据分割成不同的窗口进行聚合或其他处理。 Window 和 WindowAll 是 Flink 中窗口操作的两种不同方式&#xff0c;它们分别对应不同…

GIT仓库转移--携带原分支及提交记录

背景&#xff1a;最近公司仓库位置需要移动&#xff0c;想保留原有的仓库分支和提交记录 操作&#xff1a; 目的位置新建仓库&#xff08;要保证创建无误&#xff09;原仓库 git clone 到本地&#xff0c;git pull 保证代码最新找到原仓库.git/config 文件&#xff0c;修改 rem…

EPSON机器人与PC上位机软件C#网络TCP通讯

项目背景&#xff1a; 在非标设备PIN焊接机中用到了爱普生机器人。上位机软件使用c#wpf开发。主要逻辑在上位机中。用爱普生机器人给焊接平台实现自动上下料。 通讯方式&#xff1a;网络TCP通讯&#xff0c;Socket 角色&#xff1a;上位机为服务端&#xff0c;机器人为客户端…

Linux|centos7|录屏神器asciinema的编译安装和离线化安装使用

前言&#xff1a; asciinema这个录屏软件前面有一点研究&#xff0c;但它的部署安装比较麻烦&#xff0c;虽然此软件的安装部署方式是很多的&#xff0c;比如yum安&#xff0c;apt&#xff0c;brew&#xff0c;docker&#xff0c;pip&#xff0c;rust编译&#xff0c;docker等…