深度学习简介

深度学习简介

在这里插入图片描述

一、引言:深度学习的兴起

简短介绍深度学习的历史背景

深度学习,作为人工智能领域的一颗冉冉升起的新星,其根源可以追溯到上世纪的感知机学习算法。这种算法模拟人类的神经元行为,是最早期的尝试之一。然而,由于技术和数据的限制,直到本世纪初,随着计算能力的飞速发展和海量数据的可用性,深度学习才真正开始展现其巨大的潜力。2006年,Hinton等人通过提出“深度置信网络”(Deep Belief Networks, DBNs),成功解决了深层神经网络训练中的“梯度消失”问题,标志着深度学习时代的到来。

深度学习如何成为AI领域的热门话题

深度学习之所以成为人工智能领域的热门话题,原因在于其在多个领域中取得了令人瞩目的成就。例如,在图像识别领域,2012年,AlexNet在ImageNet挑战赛中取得冠军,大幅度提高了图像分类的准确率,这一成就直接证明了深度学习在处理高维数据时的强大能力。在自然语言处理(NLP)领域,深度学习技术如Transformers等也大幅推进了机器翻译、情感分析等任务的性能。此外,深度学习在语音识别、自动驾驶等领域的应用,更是改变了人们的生活方式,引发了广泛关注。

具体而言,深度学习技术通过模仿人脑处理信息的方式,能够自动学习和提取数据的高层特征,这种从数据直接学习的能力,使得它在处理复杂任务时展现出惊人的效果。与此同时,随着更加强大的算法模型的出现,以及计算资源的日益增加,深度学习的潜能正在被逐步解锁,促进了其成为当前最热门的研究领域之一。

通过这些具体例子和背景介绍,我们可以看到,深度学习不仅仅是机器学习领域的一部分,它已经成为推动人工智能进步的关键力量之一。随着技术的不断发展和应用的不断深入,深度学习未来的潜力无限,值得我们继续探索和研究。

在这里插入图片描述

二、深度学习与机器学习的区别

在讨论深度学习的精彩世界之前,我们需要明确一点:深度学习和机器学习虽然时常被交替使用,但它们并不是同一回事。让我们澄清它们之间的区别,并探索它们是如何共同推动人工智能的前沿的。

机器学习是一个宽泛的领域,它涵盖了使计算机有能力从数据中学习的各种技术。这通常涉及从数据中提取特征,并使用数学模型对这些特征进行分类或预测。在这个过程中,一个关键的步骤是特征工程,这是一种技术,通过它专家们确定哪些数据属性对于训练模型和解决特定问题最为关键。

例如,传统的机器学习算法,如逻辑回归或支持向量机(SVM),需要人们手动选择最有意义的特征。在进行信用卡欺诈检测时,一个数据科学家可能会选择如交易频率、金额、以及时间等属性作为主要特征。

与此相反,深度学习跳过了这个繁琐的手动过程,依靠一系列更深层的(这也是“深度”一词的由来)数据处理层来自动识别和组合特征,这极大地提高了处理复杂数据的能力。深度学习模型,尤其是那些基于多层神经网络的模型,能够自动从数据中学习高级表示。

拿图像识别来说,深度学习模型如卷积神经网络(CNN)会逐层提取图像的特征,从边缘和角落开始,逐步构建出更复杂的形状和模式。在这个过程中,并不需要人工指定哪些像素或图像区域是重要的,网络自行学习这些特征。

让我们通过下表来直观地比较深度学习和机器学习的不同点:

特征机器学习深度学习
数据处理能力较小的数据集足以产生好的结果需要大量数据来发挥潜力
特征工程需要人工选择和优化特征自动特征提取
模型复杂性简单到中等非常复杂,有时包含数百万个参数
计算资源相对较少,可以在没有GPU的情况下运行大量计算资源,通常需要GPU加速
应用案例早期语音识别,垃圾邮件筛选图像和语音识别,自然语言处理,增强现实等

通过这个比较,我们可以看出深度学习和机器学习在处理问题时的不同方法。尽管它们的方法不同,但它们的目标相同:都是为了让机器能够从数据中学习并执行复杂任务。正因为深度学习在处理高度复杂和非结构化数据方面更加高效,它已经在许多领域取得了革命性的进展,比如在计算机视觉、语音识别和自然语言处理等。

在这里插入图片描述

三、深度学习的关键技术与概念

深入深度学习的世界,我们首先遇到的是神经网络——一种模仿人脑神经元工作方式的计算模型。神经网络由多个层次结构组成,从简单的单层感知器到复杂的多层网络,每一层由许多神经元组成。这些神经元通过激活函数处理输入信息,然后将结果传递给下一层。此过程继续,直到达到输出层,输出层根据学习到的数据特征生成预测。

神经网络简介:从神经元到网络

神经网络的核心元素是神经元,一个神经元接收来自其他神经元的输入信号,通过一个加权和过程将它们聚合在一起,然后使用一个激活函数来决定是否以及如何向网络的其他部分发送信号。这种结构的灵感来源于生物神经元,它们通过轴突和突触连接并传递信息。

深度学习的核心组件
  • 激活函数:激活函数是深度学习中决定神经元输出的函数。它们引入非线性因素,帮助网络学习复杂的数据模式。最常用的激活函数包括ReLU(Rectified Linear Unit),它为正输入提供线性输出,而对负输入输出零;Sigmoid函数,将输入压缩到[0,1]区间,常用于二分类问题;以及Tanh(双曲正切)函数,输出范围为[-1,1],是Sigmoid的变体。

  • 损失函数:损失函数或成本函数衡量模型的预测与实际结果之间的差异。它是训练过程中需要最小化的关键指标。对于不同类型的问题,选择合适的损失函数至关重要。例如,回归问题常用均方误差(MSE),而分类问题可能使用交叉熵损失。

深度学习模型的训练过程

深度学习模型的训练可以分为前向传播和反向传播两个主要阶段。在前向传播阶段,输入数据通过模型的每一层进行处理,直到产生输出。接着,计算损失函数,以评估模型预测的准确度。在反向传播阶段,通过计算损失相对于模型参数的梯度,使用梯度下降或其他优化算法,调整参数以减少损失。这一过程重复进行,直到模型性能达到满意的水平。

举个具体的例子,考虑一个用于识别手写数字(0-9)的深度神经网络模型。在前向传播中,网络接收到一个手写数字的图片。图片的像素值被送入第一层,随后通过多个隐藏层进行处理,每一层都通过激活函数增加非线性,最终在输出层得到一个长度为10的向量,表示图片属于每个数字的概率。通过比较这个输出向量和实际的标签(用“独热编码”表示),我们计算出损失。在反向传播中,这个损失用于计算每个参数的梯度,并通过梯度下降法更新这些参数。

在这个过程中,每次迭代都是一个尝试,通过不断的尝试,模型逐渐学习到如何减少错误,从而提高对手写数字的识别准确率。这就是深度学习的魔力所在:通过从数据中学习,我们可以创建出能够解决复杂问题的模型,这在许多领域都有着广泛的应用,从图像识别到自然语言处理,深度学习正在推动科技的进步。

通过以上介绍,希望你对深度学习的关键技术和概念有了更深入的了解。在下一节中,我们将探讨深度学习如何被应用到各个领域,解决实际问题。

在这里插入图片描述

四、深度学习的应用领域

在探讨深度学习的应用领域时,我们发现其不仅仅局限于一两个特定的领域,而是已经广泛渗透到了我们日常生活的方方面面。深度学习技术的强大能力使其在多个行业中发挥着核心作用,从而实现了许多以往难以解决的问题。以下是深度学习在不同领域中的一些具体应用实例。

图像识别和计算机视觉

图像识别是深度学习最广为人知的应用之一。通过使用卷积神经网络(CNNs),我们可以训练模型以准确识别和分类图片中的物体。例如,在医学诊断领域,深度学习技术能够通过分析X光片或MRI扫描来辅助诊断疾病,如识别出癌症的早期迹象。另一个例子是面部识别技术,它已被广泛应用于智能手机安全解锁、公共安全监控等领域。

自然语言处理(NLP)

自然语言处理是另一个深度学习技术大放异彩的领域。通过使用循环神经网络(RNNs)和其更先进的变体,如长短期记忆网络(LSTMs)和Transformer模型,我们能够实现文本的自动翻译、情感分析、智能问答系统等复杂任务。例如,谷歌翻译就采用了深度学习技术,能够实现高质量的即时语言翻译。另外,基于深度学习的聊天机器人和虚拟助手,如苹果的Siri和亚马逊的Alexa,也是NLP技术的杰出代表。

自动驾驶

深度学习技术在自动驾驶汽车的发展中扮演了至关重要的角色。通过深度学习,车辆能够实现对周围环境的识别和理解,包括行人、其他车辆、交通标志等对象的检测。此外,深度学习还参与到决策制定过程中,帮助车辆预测其他用户的行为并作出相应的驾驶决策。特斯拉的Autopilot和谷歌的Waymo都是利用深度学习技术推进自动驾驶技术的典范。

玩游戏和增强现实

深度学习不仅在实用领域中有着广泛应用,它还在游戏和娱乐行业中展现出巨大潜力。例如,AlphaGo,一个由DeepMind开发的程序,利用深度学习技术在围棋游戏中击败了世界级的人类选手。此外,在增强现实(AR)应用中,深度学习技术能够识别用户的手势,使交互变得更加自然和直观。

总结

深度学习的应用领域广泛而深入,它正在改变我们生活、工作和娱乐的方式。随着技术的不断进步和创新,未来深度学习将在更多领域展现其惊人的潜力。无论是在提高生产效率、促进科学研究还是在改善日常生活方面,深度学习都已成为不可或缺的技术力量。

在这里插入图片描述

五、实例代码:构建一个简单的神经网络

在深度学习的实际应用中,理论的理解同样重要,但将这些理念转化为实际的代码更能够加深我们对这些复杂概念的理解。现在,让我们以Python作为编程语言,结合TensorFlow这一流行的深度学习框架,一步步构建起我们的第一个神经网络模型。我们的目标是创建一个能够识别手写数字的网络,这是深度学习入门的经典案例。

环境设置与数据准备

首先,确保你已经安装了TensorFlow。如果没有,你可以通过pip简单地安装它:

pip install tensorflow

接下来,我们将导入必要的库,并加载MNIST数据集。MNIST是一个包含了手写数字图片的大型数据库,理想用于训练各种图像处理系统。

import tensorflow as tf
from tensorflow.keras.datasets import mnist
from tensorflow.keras.utils import to_categorical# 加载数据集
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()# 数据预处理
train_images = train_images.reshape((60000, 28 * 28))
train_images = train_images.astype('float32') / 255test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255# 将标签转换为one-hot编码
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
模型构建

现在,我们将构建一个简单的全连接神经网络。在TensorFlow中,我们可以使用Sequential类快速搭建模型。

from tensorflow.keras import models
from tensorflow.keras import layers# 模型初始化
network = models.Sequential()# 添加全连接层
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))

在这里,我们第一层使用了512个神经元,并选择了ReLU作为激活函数。输出层选择了10个神经元,对应于10个类别的数字(0-9),并用softmax激活函数来计算每个类别的概率。

编译模型

模型构建好后,我们需要编译它,这一步将确定我们的损失函数、优化器以及我们希望跟踪的性能指标。

network.compile(optimizer='rmsprop',loss='categorical_crossentropy',metrics=['accuracy'])

我们使用了RMSprop优化器,这是一种非常常用的优化方法。损失函数选择了categorical_crossentropy,因为我们的目标是多分类。性能指标使用了准确率,以便我们可以监控模型在训练过程中的表现。

训练模型

现在,我们将利用我们的训练数据来训练模型。

network.fit(train_images, train_labels, epochs=5, batch_size=128)

这里,epochs指定了训练的轮次,即整个数据集将被遍历多少次。batch_size决定了每次梯度更新前要处理的样本数量。

评估模型

最后,我们使用测试数据集评估模型的性能。

test_loss, test_acc = network.evaluate(test_images, test_labels)
print('test_acc:', test_acc)

成功执行以上代码后,你将看到模型在测试数据集上的准确率,这通常会低于训练数据集上的准确率,因为模型可能在训练数据上过拟合。

通过这个简单例子,我们可以观察到深度学习模型创建和训练的基本步骤。当然,现实世界的应用会更加复杂,但理解这些基础知识对于深入学习深度学习是必不可少的。接下来,我鼓励你去调整模型参数,比如层的大小、激活函数的种类,或者尝试不同的优化器,来观察这些变化是如何影响模型表现的。

在这里插入图片描述

六、可视化深度学习

在这一节中,我们将深入探索深度学习模型的神秘内部世界。具体来说,我们将介绍如何使用可视化技术来监控模型的训练过程、理解模型的行为,以及诊断模型的问题。深度学习模型的复杂性通常使得理解它们的内部工作方式成为一项挑战。幸运的是,利用今天的技术,我们能够以前所未有的方式将这些抽象的数学结构具体化、可视化。

可视化的重要性

可视化在深度学习中的作用不可小觑。它不仅帮助研究人员和工程师更好地理解和优化模型,还能够为那些缺乏深度学习专业知识的人士提供更直观的认识。以下是可视化的一些关键作用:

  • 调试工具:通过可视化,我们可以观察训练过程中的异常行为,比如过拟合、欠拟合或梯度消失/爆炸等问题。
  • 理解模型决策:观察神经网络的激活情况可以帮助我们理解网络是如何对输入数据做出决策的。
  • 优化模型结构:通过分析模型的各层活动,我们可以更好地决定如何增删或修改网络结构。
TensorBoard:深度学习可视化的利器

TensorBoard是TensorFlow的内置工具,它提供了一系列丰富的可视化选项来显示模型在训练过程中的动态。安装TensorFlow时,TensorBoard也将一同被安装。使用TensorBoard,我们可以做到以下几点:

  • 绘制指标图:比如准确度和损失函数随时间的变化。
  • 展示模型结构:图形化展示模型架构,帮助我们理解数据流动。
  • 观察梯度和权重:分析模型参数的分布,可以揭示潜在的训练问题。
  • 嵌入式空间可视化:特别对于NLP任务,可以直观地查看词嵌入空间。
实际例子:可视化一个分类模型

假设我们正在训练一个用于图像分类的卷积神经网络(CNN)。我们希望可视化第一个卷积层的激活情况,了解网络是如何响应不同图像特征的。为此,我们首先需要收集该层的激活输出,然后使用TensorBoard的图像功能将其展示出来。

from tensorflow.keras.models import Model# 假设model是我们的CNN模型,我们取出第一个卷积层的输出
layer_outputs = [layer.output for layer in model.layers[:1]]
activation_model = Model(inputs=model.input, outputs=layer_outputs)# 当我们将图像输入模型时,我们可以获取该层的激活值
activations = activation_model.predict(some_image)# 使用TensorBoard记录这些激活值
file_writer = tf.summary.create_file_writer('path_to_logs')
with file_writer.as_default():tf.summary.image("First Convolutional Layer Activations", activations, step=0)

在TensorBoard中,我们将看到不同的激活图,它们展示了网络是如何识别不同的图像特征的。例如,某些激活可能对边缘敏感,而其他的则对颜色或特定的纹理模式反应更强烈。这些可视化图像对于理解我们的网络在学习什么以及它如何做出决策至关重要。

总而言之,可视化是深度学习领域中的一块宝贵的工具,它将抽象的数值数据转换成直观的图形信息。通过对模型进行透彻的可视化,我们能够更深入地理解它的工作原理,优化其架构,从而达到更好的性能。无论你是一个经验丰富的数据科学家,还是一个对深度学习充满好奇的新手,都可以从可视化中受益匪浅。

在这里插入图片描述

七、结语

在本篇文章中,我们一起走过了深度学习的旅程,从它的历史背景和兴起,到与传统机器学习的区别;从深度学习的关键技术和概念,到它在各个领域的广泛应用;再到如何动手构建一个简单的神经网络,以及通过可视化工具深入理解模型的行为。现在,让我们来总结一下,并展望深度学习未来的潜力和方向。

深度学习的重要性

深度学习已经成为人工智能领域的核心技术之一,它的发展带动了整个行业的革新。从语音识别和图像处理到自然语言处理,深度学习的应用几乎遍及每一个角落,极大地提高了技术的准确性和效率,开启了新的可能性。

深度学习的潜力

深度学习的潜力远不止于此。随着算法的不断完善和计算资源的增加,我们能够训练更大、更复杂的模型,解决之前无法解决的问题。深度学习在医疗健康、自动驾驶、虚拟助手等领域的应用正逐步成熟,未来有望在更多的领域内实现突破。

面对挑战,持续探索

然而,深度学习也面临着诸多挑战,如模型的可解释性、训练数据的质量和偏差问题、算法的能效比等。作为研究人员、工程师或是任何对这一领域感兴趣的人,我们需要共同面对这些挑战,持续探索和学习,为深度学习的未来贡献自己的力量。

鼓励持续学习和探索

如果你对深度学习充满热情,我鼓励你继续探索这一领域。无论是通过实践构建更多的项目,阅读最新的研究论文,还是参与相关的社区讨论,都将对你理解和应用深度学习大有裨益。记住,深度学习的旅程是永无止境的,每一步的探索都充满了可能。

深度学习是一个充满激情和可能性的领域,让我们共同期待它未来的发展,并为这个未来贡献自己的一份力量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/808660.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

OpenLayers6实战,OpenLayers实现鼠标拖拽方式绘制矩形(拖拽方式绘制长方形和正方形)

专栏目录: OpenLayers实战进阶专栏目录 前言 本章介绍使用OpenLayers在地图上实现鼠标拖拽方式绘制矩形(拖拽方式长方形和正方形)。 OpenLayers本身是可以通过鼠标点击多个点的方式来绘制多边形的,当然也包括长方形和正方形,但是这种多边形绘制出来的图形并不是准确的“…

每天学点儿Python(6) -- 列表和枚举

列表是Python中内置的可变序列,类使用C/C中的数组,使用 [ ] 定义列表,列表中的元素与元素之间用英文逗号( , )分隔, 但是Python中列表可以存储任意类型的数据,且可以混存(即类型可以…

Partisia Blockchain 何以落地隐私技术的高能场景应用?

致力于隐私保护、互操作性和可持续创新的 Layer1 区块链新星,Partisia Blockchain 以安全公平标榜,带给加密用户无忧交易的体验环境。对于这样一个融合零知识证明(ZK)技术和多方计算(MPC)的全新项目来说&am…

18_SPI通信外设

SPI通信外设 SPI通信外设SPI外设简介SPI框图SPI基本结构主模式全双工连续传输非连续传输 SPI通信外设 SPI外设简介 STM32内部集成了硬件SPI收发电路,可以由硬件自动执行时钟生成、数据收发等功能,减轻CPU的负担 可配置8位/16位数据帧、高位先行/低位先…

wsl 2在windows11上的设置

详细参考:Manual installation steps for older versions of WSL | Microsoft Learn 1.系统组件要打开 分别是:Hyper-V、虚拟机平台、适用于Windows的Linux子系统 2.以管理员方式运行命令行,逐步执行下面的命令 update to WSL 2, you must…

opc ua 环境构建(记录一)

1、准备 Siemens Simatic WinCC v7.5 二、配置 SIMATIC NET与S7-200 SMART 集成以太网口OPC 通信(TIA平台) 硬件: ①S7-200 SMART ②PC 机 ( 集成以太网卡) 软件: ① STEP 7-Micro/WIN SMART V2.1 ② STEP 7 Professional(TIA Portal V13 SP1 Upd 9) ③ SIMATIC NET …

在直播间卖云,云厂商终于“疯了”

图片|电影《疯狂的石头》截图 ©自象限原创 作者丨程心 云厂商们,在直播间打起来了! 继阿里云在罗永浩直播间亮相、京东云硬刚友商之后,腾讯云也开始在“直播间”送起了福利。 4月8日,腾讯云发布新一代AIGC存…

记录vite打包并上传到npm

开始 起因:我们单位这个项目用的vitereact使用print打印 开发环境没问题、一到打包时就卡住、所以我就想单独打包成组件在引用看看还有问题么、结果还真可以!又是离谱的一天 首先需要把npm的分支切换成官网地址、因为只有官网地址才能登陆npm账号 这里说…

FreeRTOS学习 -- 移植

一、添加FreeRTOS源码 在基础工程中新建一个名为FreeRTOS的文件夹,创建FreeRTOS文件夹以后将FreeRTOS的源码添加到这个文件夹中。 portable 文件夹,只需要保留keil、MemMang 和 RVDS这三个文件夹,其他的都可以删除掉。 移植FreeRTOSConfig…

SimOne协作版正式发布!“云+端”一体化,加速自动驾驶技术迭代!

创新的“云端”一体化方案 让11大于2 两端登录 场景共享 本地算法 云端并发 颠覆传统自动驾驶研发工作方式 加速自动驾驶算法迭代与优化 SimOne协作版正式发布! 什么是SimOne协作版? SimOne协作版,一个创新的“云端”一体化产品。 它将…

【数学建模】机器人避障问题

已知: 正方形5的左下顶点坐标 ( 80 , 60 ) (80,60) (80,60),边长 150 150 150机器人与障碍物的距离至少超过 10 10 10个单位规定机器人的行走路径由直线段和圆弧组成,其中圆弧是机器人转弯路径。机器人不能折线转弯,转弯路径由与…

代码随想录-算法训练营day02【数组02:滑动窗口、螺旋矩阵】

代码随想录-035期-算法训练营【博客笔记汇总表】-CSDN博客 https://docs.qq.com/doc/DUGRwWXNOVEpyaVpG?uc71ed002e4554fee8c262b2a4a4935d8977.有序数组的平方 ,209.长度最小的子数组 ,59.螺旋矩阵II ,总结 建议大家先独立做题,…

基于 MATLAB 和 App Designer 的 UI 交互框架开发的一款电力系统潮流计算工具

基于 MATLAB 和 App Designer 的 UI 交互框架开发的一款电力系统潮流计算工具 文章目录 基于 MATLAB 和 App Designer 的 UI 交互框架开发的一款电力系统潮流计算工具一、软件介绍二、软件功能1、数据输入 2、潮流作业设置3、 潮流结果报表及可视化三、 软件设计思路1 、牛顿拉…

【Vue3语法单文件——自用】

1. Vue3基础语法 <script setup> import { ref,computed } from vue// 定义响应式的变量 const count ref(0) const author ref({name: John Doe,books: [Vue 2 - Advanced Guide,Vue 3 - Basic Guide,Vue 4 - The Mystery] }) //定义props const props defineProps(…

[RK3399 Linux] 移植Linux 5.2.8内核详解

背景是在RK3399上面移植Rockchip官方提供的u-boot 2017.09 一、linux内核 1.1 源码下载 内核源码下载地址为:《https://www.kernel.org/》: 也可以到内核镜像网址下载https://mirrors.edge.kernel.org/pub/linux/kernel/,这里下载速度更快。 如果下载速度太慢,无法下载,…

蓝牙app设计(方案二) E4A (时钟 优缺点)

例程改的! 主界面 虽然上面有搜索功能,但是本人建议先自行配对在使用,这样更好用,把要使用的设备收藏一下更好找哦(这样就是橙色的了,只需要点对应蓝牙左边) 代码修改部分 原版是不停向下滚动显示,这样个人觉得不太好看,所以加了个时钟,到对应时钟周期清空(达到刷…

BGP小实验

光只是知道理论还不行&#xff0c;还是要多动手练练&#xff0c;就练一个bgp实验吧&#xff0c;梳理一下做题思路 实验要求&#xff1a; 大体要求就是&#xff1a;R1的环回可以ping通R2-R5的环回&#xff0c;R5同理 思路&#xff1a; 基础配置&#xff1a; 第一步先把地址环…

二叉树练习day.7

530.二叉搜索树的最小绝对差 链接&#xff1a;. - 力扣&#xff08;LeetCode&#xff09; 题目描述&#xff1a; 给你一个二叉搜索树的根节点 root &#xff0c;返回 树中任意两不同节点值之间的最小差值 。 差值是一个正数&#xff0c;其数值等于两值之差的绝对值。 示例 1&…

【记录】Prompt模板|作为甲方怎么清晰专业地描述自己的需求(又名“乙方,给你的甲方扔个GPT解放自己吧”)

这篇Prompt摘抄并修改自朋友送给我的书的第49页5.2.3让ChatGPT构建提示&#xff0c;质量挺不错&#xff0c;支持一下她的博客&#xff1a;【好书推荐2】AI提示工程实战&#xff1a;从零开始利用提示工程学习应用大语言模型。 书长这样&#xff1a; 不啰嗦了&#xff0c;正文如…

多张图如何制作一图一码?图片批量转二维码的制作方法

二维码现在经常被用来作为图片的载体&#xff0c;将图片生成二维码之后通过扫描二维码的方式来查看图片信息&#xff0c;那么如果遇到需要将几十张图片分别单独制作二维码的需求时&#xff0c;有什么方法能够一次性批量建码呢&#xff0c;相信有很多的小伙伴对这个问题的解决方…