构建自己的ChatGPT:从零开始构建个性化语言模型

在这里插入图片描述

🌷🍁 博主 libin9iOak带您 Go to New World.✨🍁
🦄 个人主页——libin9iOak的博客🎐
🐳 《面试题大全》 文章图文并茂🦕生动形象🦖简单易学!欢迎大家来踩踩~🌺
🌊 《IDEA开发秘籍》学会IDEA常用操作,工作效率翻倍~💐
🪁🍁 希望本文能够给您带来一定的帮助🌸文章粗浅,敬请批评指正!🍁🐥

文章目录

  • 构建自己的ChatGPT:从零开始构建个性化语言模型
    • 摘要:
    • 1. 引言
    • 2. 了解ChatGPT和自然语言处理基础
    • 3. 构建ChatGPT之前的准备
    • 4. 数据收集和预处理
    • 5. 搭建ChatGPT模型
      • 5.1. Transformer架构简介
      • 5.2. 自注意力机制
      • 5. 3. 编码器-解码器结构
      • 5.4. 模型细节
        • a. 词嵌入层
        • b. 位置编码
        • c. 多层编码器
        • d. 解码器
      • 5.5. 模型训练
      • 5.6. 模型生成
    • 6. 模型训练与优化
      • 6.1. 学习率调整
      • 6.2. 梯度裁剪
      • 6.3. 批量归一化
      • 6.4. Dropout
      • 6.5. 预训练模型微调
      • 6.6. 模型评估与调参
      • 6.7. 并行化训练
    • 7. 测试和评估
      • 7.1. 自动评估指标
        • a. BLEU(Bilingual Evaluation Understudy)
        • b. Perplexity
      • 7.2. 人工评估
      • 7.3. 对比实验
      • 7.4. 数据集划分
      • 7.5. 模型选择和调优
    • 8. 个性化语言模型的应用
    • 9. 面临的挑战与解决方案
      • 9.1. 过拟合
      • 9.2. 梯度消失和梯度爆炸
      • 9.3. 训练时间和资源
      • 9.4. 数据质量和多样性
    • 10. 未来展望
    • 11. 结论
    • 12. 参考文献
  • 原创声明

在这里插入图片描述

构建自己的ChatGPT:从零开始构建个性化语言模型

摘要:

在本篇博客中,我们将探讨如何构建自己的ChatGPT(Generative Pre-trained Transformer),这是一种个性化语言模型,能够自动生成人类类似的文本内容。我们将逐步介绍了解ChatGPT和自然语言处理基础、构建ChatGPT之前的准备、数据收集和预处理、搭建ChatGPT模型、模型训练与优化、测试和评估、以及个性化语言模型的应用。同时,我们还将深入讨论面临的挑战,并提供相应的解决方案。最后,我们将展望个性化语言模型的未来发展方向。

1. 引言

自然语言处理(NLP)技术近年来取得了长足的进步,其中基于深度学习的语言模型成为了研究的热点。ChatGPT作为近年来最受欢迎的语言模型之一,能够生成连贯的文本,甚至可以与用户进行实时对话。在这篇博客中,我们将一步步指导您如何构建自己的个性化ChatGPT语言模型,为您的项目或应用增添更多的魅力。

2. 了解ChatGPT和自然语言处理基础

在本节中,我们将深入了解ChatGPT的基本概念、原理和工作机制。ChatGPT是OpenAI推出的基于Transformer架构的预训练语言模型。它通过大规模的无监督学习从海量文本数据中学习到语言的结构和规律,从而具备了生成自然语言文本的能力。理解ChatGPT的原理将为我们构建个性化语言模型奠定坚实基础。同时,我们还将回顾一些自然语言处理的基础知识,包括词嵌入、序列模型等,以便更好地理解ChatGPT的构建过程。

3. 构建ChatGPT之前的准备

在开始构建ChatGPT之前,我们需要明确项目的目标和所需资源。首先,我们需要明确希望我们的ChatGPT能够达到怎样的效果和应用场景。其次,我们需要准备一台性能足够强大的计算机或使用云计算资源,因为训练大规模语言模型需要大量的计算资源和时间。同时,我们需要安装Python环境和相应的深度学习库,如TensorFlow或PyTorch,以及Hugging Face等库,这些库将大大简化我们构建ChatGPT的过程。

4. 数据收集和预处理

数据是训练语言模型的关键,良好的数据集将对模型性能产生巨大影响。在这一部分,我们将介绍如何收集适用于您个性化ChatGPT模型的数据,并进行必要的数据预处理。数据预处理包括文本清洗、分词、编码等过程,以及将数据划分为训练集、验证集和测试集等步骤,确保数据的质量和可用性。

5. 搭建ChatGPT模型

在这一章节中,我们将从头开始搭建ChatGPT模型。我们将介绍Transformer架构的基本原理,并解释其在生成文本方面的优势。随后,我们将逐步构建模型的各个组件,包括自注意力机制、编码器-解码器结构等,确保模型能够正确地生成文本。

在本章节中,我们将详细介绍如何从头开始搭建ChatGPT模型,该模型将基于Transformer架构,并利用自注意力机制和编码器-解码器结构来实现文本生成功能。下面是具体的步骤:

5.1. Transformer架构简介

Transformer是一种基于注意力机制的神经网络架构,由Vaswani等人于2017年提出,并在自然语言处理任务中取得了重大突破。Transformer摒弃了传统的循环神经网络(RNN)结构,采用了自注意力机制,使得模型能够并行处理输入序列,从而显著提高了计算效率。

5.2. 自注意力机制

自注意力机制是Transformer的核心组件之一。它允许模型在处理输入序列时,能够根据输入序列中的其他元素自适应地给予不同的注意权重。自注意力机制通过计算注意力分数来实现这一功能,然后将注意力分数与输入序列进行加权求和,得到每个位置的表示。

5. 3. 编码器-解码器结构

在构建ChatGPT模型时,我们需要同时考虑到输入序列(文本的历史信息)和输出序列(即将生成的文本)。为此,我们使用了编码器-解码器结构。编码器负责处理输入序列,将其转换为一系列高维表示;而解码器则利用这些高维表示,结合自注意力机制,生成目标序列,即我们希望模型生成的文本。

5.4. 模型细节

接下来,我们将逐步搭建ChatGPT模型的具体细节:

a. 词嵌入层

我们首先引入词嵌入层,将输入的文本转换为向量表示。词嵌入层将每个词转换为高维向量,使得模型能够更好地理解词汇之间的语义关系。

b. 位置编码

由于Transformer没有像RNN那样的顺序信息,我们需要引入位置编码来告知模型输入序列中每个单词的位置信息。位置编码的添加使得模型能够理解输入序列的顺序。

c. 多层编码器

在ChatGPT模型中,我们通常使用多层编码器来对输入序列进行处理。每一层编码器都包含自注意力机制和前馈神经网络,使得模型能够在不同抽象层次上理解输入序列的信息。

d. 解码器

在解码器中,我们将使用类似的多层结构来生成目标序列,即我们希望模型生成的文本。解码器通过注意编码器的输出和自注意力机制来逐步生成文本,直到完成整个序列的生成。

5.5. 模型训练

构建好ChatGPT模型后,我们将使用数据集进行模型训练。训练的目标是最小化模型生成文本与实际目标文本之间的差距,通常使用最大似然估计(MLE)作为训练目标。我们会使用一些优化算法,如Adam,来调整模型的参数,从而使得模型能够更好地生成符合预期的文本。

5.6. 模型生成

经过训练后,我们的ChatGPT模型就可以用来生成文本了。在生成时,我们会将一个初始的输入文本传入模型,然后利用解码器逐步生成后续的文本。为了增加生成的多样性,我们可以采用一些采样策略,如贪婪采样、束搜索等。

通过以上步骤,我们将成功搭建一个基本的ChatGPT模型,并使其能够生成个性化的文本内容。在实际应用中,我们可以根据具体需求对模型进行调优和改进,以获得更好的效果和用户体验。

6. 模型训练与优化

模型的训练和优化是确保ChatGPT性能良好的关键步骤。我们将详细讨论训练过程中的注意事项,如学习率调整、梯度裁剪等,以及一些优化技巧,如批量归一化、Dropout等,以提高模型的生成能力和效率。同时,我们还将介绍如何利用预训练模型进行微调,以便更好地适应特定任务或领域。

在模型训练与优化阶段,我们需要关注一系列重要的注意事项和优化技巧,以确保ChatGPT模型具有较好的性能和生成能力。下面是我们将要详细讨论的内容:

6.1. 学习率调整

学习率是控制模型参数更新步长的重要超参数。过大的学习率可能导致训练过程不稳定,而过小的学习率会使得模型训练过慢。在模型训练过程中,我们通常采用学习率衰减或动态调整的方法,逐渐降低学习率,使得模型在训练初期能够快速学习,而在训练后期逐渐稳定。

6.2. 梯度裁剪

梯度裁剪是一种防止梯度爆炸问题的技巧。在深度学习中,由于反向传播时梯度可能会非常大,导致模型权重更新过于剧烈。梯度裁剪通过限制梯度的大小,使得梯度不会超过一定阈值,从而稳定训练过程。

6.3. 批量归一化

批量归一化(Batch Normalization)是一种用于加速训练过程和稳定模型的技术。它通过在每个小批量数据上对输入进行归一化,使得模型在训练过程中更容易收敛。批量归一化还有助于防止梯度消失问题,并允许使用更大的学习率。

6.4. Dropout

Dropout是一种用于防止过拟合的正则化技术。它在训练过程中随机丢弃一部分神经元,使得模型在不同神经元组合上进行训练,减少神经元之间的依赖关系。这样可以提高模型的泛化能力,防止过拟合。

6.5. 预训练模型微调

如果有预训练的语言模型,如GPT-2或BERT,我们可以利用这些模型进行微调,以便更好地适应特定任务或领域。预训练模型通常在大规模数据上进行了预训练,具有丰富的语言知识。通过微调,我们可以在较少的训练数据上快速提高模型性能。

6.6. 模型评估与调参

在训练过程中,我们需要定期评估模型在验证集上的性能。通过监控模型在验证集上的表现,我们可以选择最佳的模型进行保存,避免过拟合。同时,我们还需要对模型的超参数进行调优,如学习率、批量大小等,以找到最优的组合。

6.7. 并行化训练

为了加快训练速度,我们可以采用并行化训练的方法。将模型训练过程拆分为多个计算节点并行进行,利用多台机器或GPU进行分布式训练,从而减少训练时间。

通过以上训练和优化技巧,我们可以有效地提高ChatGPT模型的性能和生成能力。同时,利用预训练模型进行微调,可以使得模型更加适应特定任务或领域,提高模型的应用价值。在训练和优化过程中,持续的实验和调整将有助于找到最佳的模型和超参数组合。

7. 测试和评估

在这一部分,我们将介绍如何对构建的ChatGPT模型进行测试和评估。我们将使用一系列标准评估指标,如BLEU、Perplexity等,来评估模型的性能,并确保其在各项指标上达到预期要求。同时,我们将进行人工评估,以获得对模型生成文本质量的直观感受。

在测试和评估ChatGPT模型的过程中,我们将采用多种方法来验证模型的性能和生成文本的质量。以下是我们将采取的评估步骤:

7.1. 自动评估指标

a. BLEU(Bilingual Evaluation Understudy)

BLEU是一种常用的自动评估指标,用于衡量模型生成的文本与参考文本之间的相似性。它通过比较n-gram重叠来计算文本之间的匹配程度。较高的BLEU分数表示模型生成的文本更接近参考文本,从而表明模型性能较好。

b. Perplexity

Perplexity是一种衡量语言模型预测能力的指标。在ChatGPT中,我们可以使用Perplexity来衡量模型生成文本的流畅程度和一致性。较低的Perplexity值意味着模型能够更好地预测下一个词,从而生成更连贯的文本。

7.2. 人工评估

自动评估指标虽然能够提供一定程度上的衡量,但仍难以完全反映模型生成文本的质量。因此,我们需要进行人工评估来获得对模型生成文本质量的直观感受。在人工评估中,我们会邀请一些评估者阅读并评价模型生成的文本,从而得到更全面和准确的评估结果。

7.3. 对比实验

为了更好地验证模型性能,我们还可以进行对比实验。我们可以将构建的ChatGPT模型与其他类似的语言模型进行比较,包括传统的n-gram语言模型和其他基于深度学习的语言模型。通过对比实验,我们可以更好地了解ChatGPT模型的优势和不足之处。

7.4. 数据集划分

在进行测试和评估时,我们需要将数据集划分为训练集、验证集和测试集。训练集用于模型的训练,验证集用于调整模型的超参数和防止过拟合,而测试集用于最终评估模型的性能。划分数据集的过程需要保证数据的随机性和一致性,以确保评估结果的准确性。

7.5. 模型选择和调优

根据测试和评估的结果,我们可以选择最佳的模型,或者对模型进行调优。调优的过程可以包括调整模型的超参数,增加训练数据的规模,或者采用更复杂的模型结构。通过不断地优化模型,我们可以使得ChatGPT模型生成的文本更加符合预期要求。

通过以上测试和评估步骤,我们可以全面地了解ChatGPT模型的性能,并对其生成的文本质量进行准确的评估。这将有助于我们进一步改进模型,提高其生成文本的质量和可用性。同时,评估结果也将指导我们在实际应用中合理地使用ChatGPT模型,以满足不同场景下的需求。

8. 个性化语言模型的应用

除了生成文本,个性化语言模型还有许多有趣的应用。在这一章节中,我们将探讨ChatGPT在对话系统、内容创作、智能助手等领域的实际应用,并展示其在提高用户体验、推动商业发展等方面的潜在价值。同时,我们还将展示如何通过调整模型参数和输入文本来实现个性化的生成结果。

9. 面临的挑战与解决方案

构建个性化语言模型并不是一帆风顺的,我们将面临各种挑战。在这一部分,我们将讨论可能遇到的问题,如过拟合、梯度消失等,以及提供相应的解决方案,帮助您克服困难并优化模型的性能。

在构建个性化语言模型的过程中,确实会遇到一些挑战,这些挑战可能会影响模型的性能和效果。以下是一些常见的挑战以及相应的解决方案:

9.1. 过拟合

过拟合是指模型在训练集上表现很好,但在新的未见过的数据上表现较差。这是因为模型过于复杂或训练数据过少,导致模型记住了训练集的噪声而不是学习到普遍规律。

解决方案:为了克服过拟合,我们可以采取以下措施:

  • 增加训练数据量:更多的数据有助于模型学习更多的通用规律,减少过拟合的可能性。
  • 数据增强:通过对训练数据进行旋转、平移、缩放等操作,生成更多的数据样本,增加数据的多样性。
  • 正则化:引入L1或L2正则化惩罚项,限制模型权重的大小,防止模型过度拟合。
  • Dropout:在训练过程中随机丢弃一部分神经元,使得模型在不同神经元组合上进行训练,减少过拟合。

9.2. 梯度消失和梯度爆炸

在深度学习中,特别是在RNN和一些较深的神经网络中,梯度消失和梯度爆炸是常见的问题。梯度消失指的是在反向传播过程中,梯度逐层递减,导致较早层的权重更新非常缓慢。梯度爆炸指的是梯度逐层递增,导致较早层的权重更新过快,导致不稳定的训练过程。

解决方案:解决梯度消失和梯度爆炸问题的方法有以下几种:

  • 使用激活函数:合理选择激活函数可以缓解梯度消失问题。ReLU、Leaky ReLU和ELU等激活函数都有一定的抑制梯度消失的能力。
  • 权重初始化:合理初始化权重可以避免梯度爆炸问题。使用较小的初始化权重,如Xavier初始化或He初始化。
  • 梯度裁剪:限制梯度的大小,防止梯度爆炸。
  • LSTM和GRU:使用长短期记忆网络(LSTM)或门控循环单元(GRU)等特殊的循环神经网络结构,可以减少梯度消失问题。

9.3. 训练时间和资源

构建个性化语言模型通常需要大量的训练时间和计算资源,特别是对于较大的模型和大规模的数据集。这可能成为一个挑战,特别是对于个人或资源有限的团队。

解决方案:为了解决训练时间和资源问题,可以采取以下措施:

  • 选择适当规模的模型:根据资源情况,选择适当规模的模型,权衡模型性能和训练时间。
  • 使用分布式训练:将训练过程拆分为多个计算节点并行进行,利用多台机器或GPU进行分布式训练,缩短训练时间。
  • 使用预训练模型:如果有适用于自己任务的预训练模型,可以使用预训练模型进行微调,减少训练时间和资源消耗。

9.4. 数据质量和多样性

构建个性化语言模型需要高质量的数据集,以及涵盖多样化的文本内容,以确保模型具有广泛的应用能力。然而,获取高质量和多样性的数据并不容易。

解决方案:为了保证数据质量和多样性,可以考虑以下方法:

  • 数据清洗:对数据进行必要的清洗和去噪,确保数据质量。
  • 数据增强:通过数据增强技术生成更多的数据样本,增加数据的多样性。
  • 引入领域知识:利用领域专家的知识来筛选和收集具有代表性的数据。

通过解决上述挑战,并采取相应的解决方案,我们可以优化个性化语言模型的性能,使其更加适用于不同的任务和应用场景。

10. 未来展望

随着人工智能技术的不断发展,个性化语言模型的未来充满了无限可能。在这一章节中,我们将展望个性化语言模型的未来发展方向,并探讨可能的研究方向和应用场景。我们相信,个性化语言模型将在各个领域发挥更加重要和广泛的作用。

11. 结论

通过本篇博客的学习,您应该对构建个性化ChatGPT语言模型有了全面的了解。个性化语言模型作为一种强大的自然语言处理技术,将为您的项目和应用带来更加出色的效果和用户体验。不过,构建个性化语言模型仍然是一个复杂而充满挑战的任务,需要不断地学习和改进。希望本文能为您在个性化语言模型的构建和应用方面提供帮助。

12. 参考文献

  1. Vaswani, A., et al. (2017). “Attention is All You Need.” In Proceedings of the 31st Conference on Neural Information Processing Systems (NIPS 2017).
  2. Radford, A., et al. (2018). “Improving Language Understanding by Generative Pre-Training.” URL: https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
  3. Devlin, J., et al. (2019). “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.” In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2019).
  4. Hugging Face Transformers Library: https://github.com/huggingface/transformers

原创声明

=======

作者wx: [ libin9iOak ]


本文为原创文章,版权归作者所有。未经许可,禁止转载、复制或引用。

作者保证信息真实可靠,但不对准确性和完整性承担责任。

未经许可,禁止商业用途。

如有疑问或建议,请联系作者。

感谢您的支持与尊重。

点击下方名片,加入IT技术核心学习团队。一起探索科技的未来,共同成长。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/10695.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【力扣每日一题】2023.7.27 删除每行中的最大值

目录 题目: 示例: 分析: 代码运行结果: 题目: 示例: 分析: 给我们一个矩阵,每次都把每行中的最大元素拿出来删掉,再把每次删除的元素里最大的元素拿出来加到结果里&…

Jetbrains 2023.2教程

IDEA 2023.2 激活演示 Pycharm 2023.2 激活演示 WebStorm 2023.2 激活演示 Clion 2023.2 激活演示 DataGrip 2023.2 PhpStorm 2023.1.4 激活演示(2023.2尚未发布) RubyMine 2023.2 激活演示 获取方式 仔细看每一个工具演示的图片 本文由 mdnice …

火车头神码ai伪原创【php源码】

大家好,小编来为大家解答以下问题,python中常用的类,python 类的用法,现在让我们一起来看看吧! 火车头采集ai伪原创插件截图:

Python - OpenCV实现摄像头人脸识别(亲测版)

要使用Python 3和OpenCV进行摄像头人脸识别,您可以按照以下步骤进行操作: 1.安装OpenCV库 在命令行中输入以下命令: pip install opencv-python2.准备人脸检测器 使用OpenCV的人脸检测器可以检测出图像中的人脸。在Python中,您…

【Terraform学习】TerraformCloud入门介绍(快速入门)

TerraformCloud入门介绍 什么是 TerraformCloud? Terraform Cloud是Hashicorp Terraform的SaaS版本。 免费版功能 免费版功能包括版本控制集成、远程计划和实施远程计划和实施、通知及webhook、全http API驱动、状态管理、模拟计划、私有化模块注册器以及全HTTP界…

LabVIEW开发谐振器陀螺仪仿真系统

LabVIEW开发谐振器陀螺仪仿真系统 陀螺仪是INS系统中最重要的传感器。它们的性能(如精度和偏置稳定性)决定了INS系统的水平。陀螺仪按原理分为三类:角动量守恒、萨格纳克效应和科里奥利效应。旋转坐标系中的移动物体受到的力与旋转坐标系的角…

7-22练习

题目1 链接5071 不难发现通过A的范围可以缩小B的范围进而减少循环次数 通过B可以消除A的循环 这个是一个很巧妙的地方。这个题还有一个比较容易引起歧义的地方就是i:n每一次循环都要符合条件 这样我们不难构造出一个函数 f(B+x) = 1000*A+x 试验1 运行超时-- 需要减少复杂度…

Hive视图

hive的视图 简介 hive的视图简单理解为逻辑上的表hive只支持逻辑视图,不支持物化视图视图存在的意义 对数据进行局部暴露(涉及隐私的数据不暴露)简化复杂查询 创建视图: create view if not exists v_1 as select uid,movie f…

windows 安装 mongodb 数据库

软件下载 访问官方的下载地址: https://www.mongodb.com/try/download/community ,然后选择对应的版本进行下载 下载好了之后双击进行安装 软件安装 1、点击 next 点击下一步 2、勾选接受协议,点击 next 3、第三页有两个选项&#x…

大学生活题解

样例输入: 3 .xA ... Bx.样例输出: 6思路分析: 这道题只需要在正常的广搜模板上多维护一个— —方向,如果当前改变方向,就坐标不变,方向变,步数加一;否则坐标变,方向不…

视频讲解Codeforces Round 887 (Div. 2)(A--C)

文章目录 A. Desorting1、板书2、代码 B. Fibonaccharsis1、板书2、代码 C. Ntarsis Set1、板书2、代码 视频讲解Codeforces Round 887 (Div. 2)&#xff08;A–C&#xff09; A. Desorting 1、板书 2、代码 #include<bits/stdc.h> #define endl \n #define INF 0x3f…

2023年的深度学习入门指南(20) - LLaMA 2模型解析

2023年的深度学习入门指南(20) - LLaMA 2模型解析 上一节我们把LLaMA 2的生成过程以及封装的过程的代码简单介绍了下。还差LLaMA 2的模型部分没有介绍。这一节我们就来介绍下LLaMA 2的模型部分。 这一部分需要一些深度神经网络的基础知识&#xff0c;不懂的话不用着急&#xf…

Python电商爬虫保姆级入门教程(纯新手向)

图灵Python课堂 长沙图灵教育于2001年开始进入教育行业&#xff0c;立足泛IT类职业教育&#xff0c;以打造高新技术人才为宗旨&#xff0c;专注于提供多层次、个性化的职业技能培训课程&#xff0c;为各行业培养技术开发、应用和管理等岗位的中高端人才&#xff0c;致力于成为…

【无标题】自定义类型:位段,枚举,联合

自定义类型&#xff1a;位段&#xff0c;枚举&#xff0c;联合 1. 位段1.1 什么是位段1.2 位段的内存分配1.3 位段的跨平台问题 2. 枚举2.1 枚举类型的定义2.2 枚举类型的优点2.3 枚举的使用 3. 联合&#xff08;共用体&#xff09;3.1 联合类型的定义3.2联合的特点3.2.1 相关面…

LUMEN技术要点总结

LUMEN总结 主题是动态全局光照和Lumen Lumen更像是一个各种GI算法的集大成者。 1. 如何理解lumen及全局光照的实现机制 渲染方程 至今为止所有的实时光照都是按照Render Equation来进行渲染的&#xff0c;我们做得到只是在无限的逼近它。 我们把只进行一次反弹叫做SingleBou…

【UniApp开发小程序】悬浮按钮+出售闲置商品+商品分类选择【基于若依管理系统开发】

文章目录 界面效果界面实现悬浮按钮实现商品分类选择界面使元素均匀分布 闲置商品描述信息填写界面价格校验 界面效果 【悬浮按钮】 【闲置商品描述信息填写界面】 【商品分类选择界面】 【分类选择完成】 界面实现 悬浮按钮实现 悬浮按钮漂浮于页面之上&#xff0c;等页面…

opencv-20 深入理解HSV 色彩空间(通过指定,标记颜色等来拓展ROI区域)

RGB 色彩空间是一种被广泛接受的色彩空间&#xff0c;但是该色彩空间过于抽象&#xff0c;我们不能够直接通过其值感知具体的色彩。 我们更习惯使用直观的方式来感知颜色&#xff0c;HSV 色彩空间提供了这样 的方式。 通过 HSV色彩空间&#xff0c;我们能够更加方便地通过色调、…

Python补充笔记5-模块化、文件

目录 一、模块 二、模块的导入 三、python中的包​编辑 四、常用的内容模块 五、第三方模块的安装与使用 六、编码格式的介绍 七、文件读写的原理 八、常用的文件打开模式 ​九、文件对象的常用方法 十、with语句​编辑 十一、os模块的常用函数 十二、os.path模块的常用方法​编…

今天学学消息队列RocketMQ:消息类型

RocketMQ支持的消息类型有三种&#xff1a;普通消息、顺序消息、延时消息、事务消息。以下内容的代码部分都是基于rocketmq-spring-boot-starter做的。 普通消息 普通消息是一种无序消息&#xff0c;消息分布在各个MessageQueue当中&#xff0c;以保证效率为第一使命。这种消息…

Staples Drop Ship EDI 需求分析

Staples 是一家美国零售公司&#xff0c;总部位于马萨诸塞州弗拉明汉&#xff0c;主要提供支持工作和学习的产品和服务。该公司于 1986 年在马萨诸塞州布莱顿开设了第一家门店。到 1996 年&#xff0c;该公司已跻身《财富》世界 500 强&#xff0c;后来又收购了办公用品公司 Qu…