【AIGC调研系列】AI大模型结合迁移学习进行微调的应用

AI大模型结合迁移学习进行微调的应用主要体现在通过预训练模型快速适应新任务,提高模型性能和准确性。迁移学习允许我们利用在其他任务上学到的知识来加速新任务的学习过程,从而减少对大量标注数据的依赖,提高训练效率[1][2][3]。在AI领域,特别是深度学习中,迁移学习已成为一种重要的技术,它通过微调(Fine-tuning)的方式,使得预训练模型能够在特定的新任务上取得更好的效果[4][5][6]。

微调是迁移学习中的一个关键步骤,它涉及在预训练模型的基础上调整参数以适应新的任务或领域。这种方法不仅可以节省大量的时间和计算资源,还能在许多情况下显著提高模型的性能[11][15]。例如,在自然语言处理、图像识别等领域,通过微调预训练的大模型,可以有效地提升模型在特定任务上的表现[8][18]。

此外,微调策略的选择对于迁移学习的效果至关重要。根据目标任务的性质和数据集的特点,可以选择全量微调或参数高效微调(PEFT)。全量微调意味着调整预训练模型的所有参数,而参数高效微调则是在保持模型性能的同时,尽量减少需要调整的参数数量,以达到更高的效率[25][26]。

在实际应用中,选择合适的迁移学习算法和微调策略,以及合理利用预训练模型的知识,是实现高效、准确模型定制的关键[3][29]。随着人工智能技术的不断发展,迁移学习及其微调方法将在更多AI任务中发挥重要作用,帮助解决数据稀缺、计算资源有限等问题[12][27]。

迁移学习在AI大模型微调中的最新进展是什么?

迁移学习在AI大模型微调中的最新进展主要体现在以下几个方面:

  1. 技术方法的创新与优化:最新的研究提出了基于结构解耦的参数高效微调新方法,这种方法通过减少需要更新的模型参数数量,显著降低了GPU内存和时间成本的需求,使得在资源受限的情况下也能快速有效地进行模型微调[34]。此外,还有研究通过迁移源模型的模型结构和微调参数,使目标模型继承源域的先验知识,从而提高性能[32]。
  2. 应用领域的拓展:大模型微调方法已经成为多种任务中表现出强大能力的通用迁移学习方法。这包括但不限于自然语言处理、图像识别、机器翻译等领域[33][40]。特别是在大型语言模型训练中,微调是最常见的方法之一,通过使用大规模数据集对语言模型进行预训练,然后针对新任务进行特定调整,以提高模型在新任务上的性能[38]。
  3. 性能提升与效率优化:通过微调,模型可以利用预训练模型在大规模数据集上学到的通用特征,同时针对新任务进行特定的调整,这不仅提高了模型在新任务上的性能,还缩短了模型的训练时间[35][40]。例如,UNC提出的高效迁移学习法「LST」能够在GPU内存上节约69%,这对于下游任务的微调尤为重要[39]。

迁移学习在AI大模型微调中的最新进展主要包括技术创新、应用领域的拓展以及性能与效率的双重优化。这些进展不仅推动了迁移学习技术的发展,也为解决实际问题提供了更有效、更高效的解决方案。

如何评估和选择最适合特定任务的微调策略?

评估和选择最适合特定任务的微调策略,首先需要明确目标任务的性质和数据集的特点,以此为基础选择合适的预训练模型。预训练模型应与目标任务具有一定的相关性,以便在进行微调时获得更好的效果[41][42]。接下来,根据任务需求和可用资源,选择适当的微调策略,这可能包括全微调、部分微调以及微调的层级和范围[42][44]。此外,参数的选择和调整也非常关键,如学习率、批量大小等参数都会影响微调的效果[41]。

在实践中,可以采用数据增强技术和正则化技术来提高微调的效果。数据增强通过对原始数据进行一些小的变换来生成新的数据,可以在一定程度上提高模型的泛化能力。正则化则通过在损失函数中增加一些惩罚项来约束模型的复杂度,从而避免过拟合现象的发生[41]。

评估指标的选择也是至关重要的一步。评估指标是用于评估微调后的模型在特定任务上的性能的标准,通常需要针对特定任务进行选择,以便在实际应用中得到最佳的性能[48]。在执行模型微调的过程中,还需要特别关注选择的微调策略是否与模型的特定需求相匹配[46]。

总结来说,评估和选择最适合特定任务的微调策略是一个综合考虑预训练模型的选择、微调策略的设定、参数调整以及评估指标选择的过程。每一步都需要根据目标任务的具体情况来细致考量,以确保最终的微调策略能够有效地提升模型在特定任务上的表现。

在自然语言处理和图像识别领域,哪些预训练模型最适合进行微调?

在自然语言处理(NLP)和图像识别领域,适合进行微调的预训练模型包括但不限于以下几种:

  1. TensorFlow Slim:在图像识别领域,TensorFlow Slim提供了微调模型的功能,帮助调整预训练模型的参数以提高识别准确率。这涉及到模型参数调整、层间连接和网络结构调整等方面[51][53]。
  2. BERT及其变体:Google's BERT是一个在NLP领域广泛使用的预训练模型,它通过大规模无标注数据进行自监督学习预训练,然后可以通过微调方法在特定的下游任务上进行优化[54][55]。
  3. GPT-2:OpenAI的GPT-2是另一个强大的NLP预训练模型,它同样支持通过微调来适应特定的任务[54]。
  4. VGG16:在图像识别领域,VGG16是一个常用的预训练模型,可以通过微调改进来适应新的图像识别任务[56]。
  5. PyTorch-Transformers库中的模型:这个库支持多个预训练框架和模型,包括但不限于BERT、GPT等,适用于NLP领域的微调[57]。
  6. 基于ImageNet的图片分类模型:这些模型通常用于图像识别任务的微调,可以通过更新所有模型参数或仅更新最终图层权重来进行[58]。
  7. GluonCV工具包提供的计算机视觉预训练模型:如果需要更多的计算机视觉领域的预训练模型,可以使用GluonCV工具包获取[59]。

对于自然语言处理和图像识别领域的微调任务,选择合适的预训练模型是非常重要的。上述提到的模型和工具包都是当前研究和应用中广泛使用和推荐的选项。

微调过程中如何平衡模型性能与计算资源的消耗?

在微调过程中平衡模型性能与计算资源的消耗,可以通过以下几种方法实现:

  1. 使用量化技术:通过将浮点数转换为低精度数值(如INT8、FP4和NF4),可以有效减少模型的大小和计算量,提高模型的运行效率。这些技术可以在保证模型精度的同时,实现高效的模型优化[61]。
  2. 参数高效微调:仅微调部分参数,而不是全部参数,可以大大降低计算和存储成本,同时还能实现与全量微调相当的性能。这种方法适用于解决大型语言模型微调问题[65]。
  3. 采用LoRA方法:LoRA是一种新方法,可以在保持模型性能的同时大幅减少微调的参数量,从而节省大量的计算资源和时间[64]。
  4. 优化内存使用量:通过研究和实施内存高效的微调方法(如QLORA),可以提高大模型微调的效率并大幅减少内存使用量[66]。
  5. 压缩/微调方法:这种方法可以在保持模型性能的同时,减少模型的参数量和计算量,从而降低模型的大小和功耗[67]。
  6. 利用预训练模型的通用特征:微调模型可以利用预训练模型中学习到的通用特征,从而提高模型在新任务上的收敛速度和性能。由于只需要微调部分层,因此可以大大减少计算资源的消耗[68]。

通过上述方法,可以在不牺牲太多模型性能的前提下,有效地控制计算资源的消耗,实现模型性能与计算资源消耗之间的平衡。

针对数据稀缺和计算资源有限的问题,有哪些创新的迁移学习方法?

针对数据稀缺和计算资源有限的问题,创新的迁移学习方法主要包括以下几种:

  1. 使用尽量少的数据和计算资源来训练机器学习模型:通过迁移学习、主动学习、数据增强和模型压缩等技术方法,在有限的资源条件下实现高效和准确的机器学习模型训练[72]。
  2. 迁移学习与自监督学习的结合:迁移学习利用从大规模数据集(例如ImageNet)预训练中学到的知识,并将其应用于具有有限标记数据的目标任务。自监督学习则侧重于使用不需要手动注释的借口任务来训练模型,使它们能够从大量未标记的数据中学习有价值的表示,然后可以针对下游任务对这些学习到的表示进行微调,从而减少对大量标记数据的需求[73]。
  3. 深度神经算子(Deep Neural Operators)用于迁移学习问题:提出了一种新的深度神经算子用于迁移学习问题,尤其针对条件偏移下的任务。该框架可用于快速高效的特定偏微分方程(PDE)学习和不确定性量化,利用再生核希尔伯特空间(RKHS)和条件嵌入算子理论的原理,构建了一种新的混合损失函数,并用于微调目标模型[74]。
  4. 选择预训练模型、微调策略、数据预处理、模型优化:在迁移学习中,选择合适的预训练模型、采用有效的微调策略、进行适当的数据预处理以及模型优化,都是提高模型性能的重要手段。这些技巧可以帮助在有限数据集上实现强大的模型性能[77]。
  5. 结合创新方案:如图神经网络、物理信息神经网络等主题的迁移学习结合创新方案,为解决实际问题提供了新的思路[78]。
  6. 深度可分离卷积:MobileNetV1 和 MobileNetV2 的成功展示了深度可分离卷积在资源受限设备上的应用潜力,显著降低了卷积神经网络(CNN)的计算和内存需求,同时保持足够的移动部署效率[79]。

这些方法和技术展示了在数据稀缺和计算资源有限的情况下,如何有效地利用迁移学习和其他相关技术来提高机器学习模型的性能和效率。

参考资料

1. 2024-04-02 问AI:介绍一下深度学习中的“迁移学习” 原创 - CSDN博客 [2024-04-02]

2. 模型迁移学习:实现AI大语言模型的跨领域应用原创 - CSDN博客 [2024-03-17]

3. 大模型训练:迁移学习在AI中的应用 - 百度开发者中心

4. 人工智能大模型原理与应用实战:迁移学习的应用与实战- 掘金 [2023-12-27]

5. 人工智能大模型原理与应用实战:迁移学习方法优化原创 - CSDN博客 [2023-12-19]

6. 人工智能大模型原理与应用实战:迁移学习的模型设计和实践_大模型领域迁移-csdn博客

7. 人工智能大模型原理与应用实战:迁移学习实践 - 51CTO博客 [2023-12-27]

8. Ai大模型应用入门实战与进阶:大模型与小数据:迁移学习实战-csdn博客 [2024-01-07]

9. 人工智能之迁移学习 - OFweek维科网 [2018-05-07]

10. 人工智能大模型原理与应用实战:迁移学习在实际场景中的运用- 掘金 [2023-12-19]

11. 大模型微调方法详解:从入门到精通 | 数据学习者官方网站(Datalearner) [2023-10-18]

12. AI迁移学习(Transfer Learning) - 51CTO博客 [2023-12-22]

13. 什么是迁移学习(Transfer Learning)?定义,优势,方法 [2021-10-14]

14. 迁移学习(transfer learning)领域有哪些比较新的研究方向? - 知乎

15. 大模型微调:深度学习模型优化的新策略 | 数据学习者官方网站(Datalearner) [2023-10-18]

16. 一文读懂在深度学习中使用迁移学习的好处 - 腾讯云 [2018-03-05]

17. Generative AI 新世界 | 大模型参数高效微调和量化原理概述 [2023-10-18]

18. 人工智能中的迁移学习综合指南 - 元宇宙头条 [2023-06-26]

19. 大模型微调:高效定制AI模型的策略 - 百度开发者中心

20. 迁移学习(Transfer learning) - 产品经理的人工智能学习库 [2022-08-15]

21. 人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法 [2023-10-11]

22. 大模型LLM微调技术方法汇总! - 知乎专栏 [2023-12-25]

23. AI 大模型Fine-Tuning 精调训练(微调)图文代码实战详解 - CSDN博客 [2024-03-16]

24. 元学习在人工智能迁移学习中的作用 - 稀土掘金 [2023-12-28]

25. 大模型微调(Fine-tuning):AI领域的个性化定制技术 - 知乎专栏 [2024-03-21]

26. 带你快速了解大模型微调原理 - 腾讯云

27. 极客时间AI大模型微调训练营「完zheng」 - 稀土掘金 [2024-02-16]

28. Transfer learning 【迁移学习综述_汇总】 - 知乎 - 知乎专栏

29. 总结!大模型微调(Tuning)的常见方法 - AI魔法学院 [2024-02-16]

30. Model-based Transfer Learning 基于模型的迁移学习概述 - 知乎 [2022-05-01]

31. Fast.ai推出NLP最新迁移学习方法「微调语言模型」 - 搜狐 [2018-01-21]

32. 《异构迁移学习》2023年最新综述 - 知乎 - 知乎专栏 [2023-10-31]

33. 大模型微调:迁移学习与泛化的探索-百度开发者中心 [2023-09-12]

34. [Aaai 2024] Dtl: 基于结构解耦的参数高效微调新方法 - 知乎 [2024-02-02]

35. 迁移学习中的常见技巧:微调(fine-tuning)_模型, finetune-CSDN博客 [2023-08-23]

36. 翻译: 迁移学习和微调Transfer learning & fine-tuning 原创 - CSDN博客 [2023-04-30]

38. 迁移学习在大型语言模型训练中的应用及常用方法 - 网易伏羲 [2023-07-19]

39. NeurIPS2022 | UNC 提出高效迁移学习法「LST」,GPU内存可节约69%(含源码) - 知乎 [2022-11-02]

40. 大模型微调:有效提升迁移学习效果的方法 - 百度智能云 [2023-07-29]

41. 解读大模型的微调:从理论到实践-百度开发者中心 [2024-01-07]

42. 大模型炼丹术:大模型微调的常见方法 - 知乎 - 知乎专栏

43. LLM常见问题解析:微调策略的实践与应用 - 百度智能云 [2024-04-02]

44. 什么是大模型微调?微调的分类、方法、和步骤 - 澳鹏 [2023-10-27]

45. 预训练大语言模型的三种微调技术总结:fine-tuning、parameter-efficient fine-tuning和prompt ...

46. 大模型微调:调整策略与效果评估 - 百度智能云 [2023-07-29]

47. 深度学习大模型微调方法探讨 - 百度开发者中心

48. 深度学习的微调学习:针对特定任务进行学习 - 稀土掘金 [2023-12-15]

49. 深度学习网络微调(fine-tune)的基本原理以及应用约束条件 - 博客园 [2023-04-26]

50. 大模型微调:调整策略与效果评估 - 百度开发者中心

51. 大模型微调:打造高效图像识别解决方案 - 百度智能云

52. 2021年预训练语言模型及微调的最新进展 - Csdn博客

53. 大模型微调:利用预训练模型进行高效图像识别 - 百度开发者中心

54. 8个非常好的NLP领域的预训练模型(包含代码和论文资源) | 数据学习者官方网站(Datalearner)

55. 计算机系研究团队在大规模语言预训练模型前沿领域取得新进展 [2023-03-05]

56. 使用||微调预训练模型||迁移学习原创 - CSDN博客 [2019-05-07]

57. 最强 NLP 预训练模型库 PyTorch-Transformers 正式开源:支持 6 个预训练框架,27 个预训练模型

58. PyTorch ImageNet 基于预训练六大常用图片分类模型的实战-腾讯云开发者社区-腾讯云

59. 9.2. 微调 — 《动手学深度学习》 文档 - Gluon

60. 大模型微调:基于预训练模型的图像识别 - 百度开发者中心

61. 大模型微调实战:使用int8/Fp4/Nf4进行高效性能优化-百度开发者中心 [2024-03-06]

62. 如何进行模型微调(Finetune) - 知乎 - 知乎专栏

63. 五种资源类别,如何提高大语言模型的资源效率,超详细综述来了 - 知乎 [2024-01-14]

64. LoRA:语言模型微调的计算资源优化策略 - 稀土掘金 [2024-02-05]

65. 大模型参数高效微调技术原理综述 - InfoQ 写作社区 [2024-01-16]

66. QLORA:大模型微调的内存高效方法 - 搜狐 [2023-11-16]

67. 大模型微调:优化深度学习效率的关键方法 - 百度开发者中心 [2024-04-01]

68. 大模型微调:提升模型性能的有效方法 - 稀土掘金 [2023-07-31]

69. 大模型微调:优化代码效率,降低执行代价 - 百度智能云 [2023-07-29]

70. 每日论文速递| 当缩放遇到LLM微调:数据、模型和微调方法的影响 [2024-03-02]

71. 迁移学习的未来:如何应对数据不足和计算资源有限的挑战-csdn博客 [2023-12-31]

72. 低资源机器学习:使用尽量少的数据和计算资源来训练机器学习模型-csdn博客 [2024-01-15]

73. 迁移学习和自监督学习的比较回顾:定义、应用、优点和局限性 [2023-12-02]

74. PINN论文精读(7):Deep transfer operator learning - 知乎

75. 迁移学习技巧:如何在有限数据集中实现强大的模型性能-csdn博客 [2024-01-02]

76. 迁移学习的未来:如何应对数据不足和计算资源有限的挑战- 掘金 [2023-12-30]

77. 迁移学习的优化技巧与实践-csdn博客

78. 顶会热点!迁移学习9个结合创新思路,让审稿人眼前一亮 - CSDN博客 [2024-03-27]

79. 深度学习--使用 MobileNet 进行迁移学习 - 知乎 - 知乎专栏 [2023-12-21]

80. 迁移学习全面指南:概念、应用、优势、挑战 - 腾讯云

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/799760.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python mixin

Python 中的 Mixin 类是一种特殊的继承机制,它允许我们在不修改类层次结构的情况下,向一个类添加额外的功能。Mixin 类通常包含一些可复用的方法或属性,可以被其他类继承和使用。 Mixin 类的主要特点如下: 可复用性: Mixin 类包含可重用的方法或属性,可以被多个类继承和使用,提…

Vue使用高德地图

1.在高德平台注册账号 2.我的 > 管理管理中添加Key 3.安装依赖 npm i amap/amap-jsapi-loader --save 或 yarn add amap/amap-jsapi-loader --save 4.导入 AMapLoade import AMapLoader from amap/amap-jsapi-loader; 5.直接上代码,做好了注释(初始化…

在内网环境下成功安装Vue Devtools的曲折历程与解决方案

经过一系列周折的探索,笔者在尝试将Vue Devtools扩展程序接入内网环境下的Chrome浏览器过程中遭遇了种种挑战,常规的在线安装途径均未能奏效。然而,功夫不负有心人,最终发掘了一种有效的方法,使得内网安装成为可能。 …

[AIGC] MySQL连接查询全面解析

在数据库操作中,经常需要从多个表中获取数据,并对这些数据进行合并处理。在MySQL中,我们通常会使用“连接(JOIN)”操作来实现这一需求。 文章目录 什么是连接查询MySQL支持的连接查询类型 什么是连接查询 连接查询是S…

3. Django 初探路由

3. 初探路由 一个完整的路由包含: 路由地址, 视图函数(或者视图类), 可选变量和路由命名. 本章讲述Django的路由编写规则与使用方法, 内容分为: 路由定义规则, 命名空间与路由命名, 路由的使用方式.3.1 路由定义规则 路由称为URL (Uniform Resource Locator, 统一资源定位符)…

研判特征流量

研判溯源应急 准备-检测-抑制-根除-恢复-跟踪总结 中级 内存马的判断和清除: 判断方式:先判断是通过什么方法注入的内存马,可以先查看web日志是否有可疑的web访问日志,如果是filter或者listener类型就会有大量url请求路径相同…

【IPV6】--- IPV6过渡技术之6 over 4隧道配置

1. IPV4和IPV6有什么区别? 2. IPV6如何在设备上配置? 3. IPV4和IPV6如何跨协议实现通信? 1. IPV4和IPV6 --- IPV6技术 - IP协议第六版 - 128位二进制数 - 2^12843亿*43亿*43亿*43亿 --- IPV4技术 - IP协议第四版 - 192.1…

python项目练习——18.文件加密和解密工具

这个项目可以让用户加密文件,以保护文件内容的安全性,也可以让用户解密已加密的文件。这个项目涉及到文件操作、加密算法等方面的技术。 代码示例: from cryptography.fernet import Fernet # 导入 Fernet 加密算法 import os # 导入 os 模…

Nginx 有关于网络连接的配置

网络链接的设置 超时时间 client_header_timeout client_header_timeout time; #默认单位 秒 客户端与服务器建立连接接收 HTTP 请求的时间,超出设置的时间即为超时。 默认:60 配置块:http、server、location client_body_timeout cl…

腾讯云流量怎么计算的?轻量服务器流量价格表

腾讯云轻量应用服务器套餐带流量包,就是有月流量限制的意思,超出轻量套餐的流量需要另外支付流量费,轻量服务器地域不同超额流量费用也不同,北京上海广州等中国内地地域流量价格是0.8元每GB,中国香港地域流量价格是1元…

创建自定义标题栏

我是qt新手,自己写的自定义标题栏,仅供参考 胜在简单易懂 实现 关闭 title 移动 三个功能 首先在.cpp文件中 this->setWindowFlags(Qt::FramelessWindowHint); 取消原先的标题栏 关闭和title结构简单 在一个布局中创建label和pushbutton,然后中间加一个弹簧 然后…

Redis Stack十部曲之三:理解Redis Stack中的数据类型

文章目录 前言String字符串作为计数器限制 List限制列表阻塞列表自动创建和删除聚合类型键限制 Set限制 Hash限制 Sorted Set范围操作字典操作更新分数 JSON路径限制 BitMapBitfieldProbabilisticHyperLogLogBloom filterCuckoo filtert-digestTop-KCount-min sketchConfigurat…

兼顾性能的数据倾斜处理方案

目录 前言 一、场景描述 二、常见的优化方法 2.1 Mapjoin 2.2 特殊值/空值打散 2.3 热点值打散,副表呈倍数扩散 2.4 热点数据单独处理/SkewJoin 2.5 方案总结 三、Distmapjoin 3.1 核心思路 3.2 代码实现 3.3 真实效果 四、方案总结 文章主要是介绍在支…

Java泛型方法

类上定义的泛型,在方法中也可以使用。但是,我们经常需要仅仅在某一个方法上使用泛型,这时候可以使用泛型方法。 调用泛型方法时,不需要像泛型类那样告诉编译器是什么类型,编译器可以自动推断出类型。 泛型方法的使用…

MUX VLAN

目录 原理概述 实验目的 实验内容 实验拓扑 1.基本配置 2.使用Hybrid端口实现网络需求 3.使用Mux VLAN实现网络需求 原理概述 在实际的企业网络环境中,往往需要所有的终端用户都能够访问某些特定的服务器,而用户之间的访问控制规则则比较复杂。在…

✌2024/4/3—力扣—字符串转换整数

代码实现&#xff1a; int myAtoi(char *str) {long ret 0;int flag 1; // 默认正数// 去除空格及判断符号位while (*str ) {str;}if (*str -) {flag -1;str;} else if (*str ) {str;}// 排除非数字的情况if (*str < 0 || *str > 9) {return 0;}while (*str > …

前端| 富文本显示不全的解决方法

背景 前置条件&#xff1a;编辑器wangEditor vue项目 在pc端进行了富文本操作&#xff0c; 将word内容复制到编辑器中&#xff0c; 进行发布&#xff0c; pc端正常&#xff0c; 在手机端展示的时候 显示不全 分析 根据h5端编辑器内容的数据展示&#xff0c; 看到有一些样式造…

大模型应用解决方案:基于ChatGPT和GPT-4等Transformer架构的自然语言处理

&#x1f482; 个人网站:【 摸鱼游戏】【神级代码资源网站】【工具大全】&#x1f91f; 一站式轻松构建小程序、Web网站、移动应用&#xff1a;&#x1f449;注册地址&#x1f91f; 基于Web端打造的&#xff1a;&#x1f449;轻量化工具创作平台&#x1f485; 想寻找共同学习交…

性能优化 - 你知道webpack都可以帮我们做哪些性能优化吗

难度级别:中高级及以上 提问概率:75% webpack打包优化主要的思想就是合理利用浏览器缓存、减小代码体积以及减少HTTP请求数量。尽管我们在开发阶段已经做了大量的优化工作,但开发阶段难免存在疏忽,而且源代码也不能直接部署到服务器。可以说…

一起学习python——基础篇(7)

今天讲一下python的函数。 函数是什么&#xff1f;函数是一段独立的代码块&#xff0c;这块代码是为了实现一些功能&#xff0c;而这个代码块只有在被调用时才能运行。 在 Python 中&#xff0c;使用 def 关键字定义函数&#xff1a; 函数的固定结构就是 def(关键字)函数名字…