【热门主题】000018 人工智能深度学习模型:探索与应用

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎收藏+关注哦 💕

共同探索软件研发!敬请关注【宝码香车】
关注描述

csdngif标识

目录

  • 【热门主题】000018 人工智能深度学习模型:探索与应用
  • 📚一、深度学习模型的崛起与重要性
  • 📚二、深度学习模型的分类与特点
    • 📘(一)卷积神经网络(CNN)
    • 📘(二)循环神经网络(RNN)
    • 📘(三)长短时记忆网络(LSTM)
    • 📘(四)门控循环单元(GRU)
    • 📘(五)自注意力模型(Transformer)
    • 📘(六)生成对抗网络(GANs)
    • 📘(七)人工神经网络
  • 📚三、深度学习模型的优化策略
    • 📘(一)数据预处理与增强
    • 📘(二)模型架构优化
    • 📘(三)训练过程优化
    • 📘(四)硬件与软件加速
    • 📘(五)模型剪枝与量化
  • 📚四、深度学习模型的发展历程
    • 📘(一)启蒙时期与早期模型
    • 📘(二)感知器时代
    • 📘(三)连接主义与反向传播算法的提出
    • 📘(四)深度学习时代的来临
    • 📘(五)大模型时代
  • 📚五、深度学习模型的应用案例
    • 📘(一)图像分类
    • 📘(二)目标检测
    • 📘(三)自然语言处理
    • 📘(四)语音识别
  • 📚六、深度学习模型的优势与挑战
    • 📘(一)深度学习模型的优势
    • 📘(二)深度学习模型的挑战


📚📗📕📘📖🕮💡📝🗂️✍️🛠️💻🚀🎉🏗️🌐🖼️🔗📊👉🔖⚠️🌟🔐⬇️·正文开始⬇️·🎥😊🎓📩😺🌈🤝🤖📜📋🔍✅🧰❓📄📢📈 🙋0️⃣1️⃣2️⃣3️⃣4️⃣5️⃣6️⃣7️⃣8️⃣9️⃣🔟🆗*️⃣#️⃣

【热门主题】000018 人工智能深度学习模型:探索与应用

📚一、深度学习模型的崛起与重要性

深度学习模型作为人工智能领域的关键技术,在当今科技领域占据着举足轻重的地位。随着数据量的爆炸式增长和计算能力的不断提升,深度学习模型得以迅速发展。
深度学习模型具有广泛的应用场景。在自动驾驶领域,它能够通过对海量图像和传感器数据的分析,准确识别道路标志、行人、车辆等障碍物,实现车辆的自主导航和智能决策。据统计,目前一些先进的自动驾驶汽车已经能够在特定环境下实现高度自动化的驾驶,大大提高了交通的安全性和效率。
在语音识别方面,深度学习算法使得语音识别准确率大幅提升,广泛应用于语音助手、智能客服、智能家居等领域。例如,智能语音助手能够准确理解用户的指令,并快速做出响应,为人们的生活带来了极大的便利。
计算机视觉领域也是深度学习模型的重要应用场景之一。图像分类、目标检测、人脸识别等任务都依赖于深度学习模型。在 ImageNet 图像分类竞赛中,卷积神经网络模型将图像分类的准确率提高到了惊人的水平,为计算机视觉技术的发展树立了新的标杆。
此外,深度学习模型在自然语言处理、医疗影像分析、推荐系统、智能家居、游戏开发、机器人技术等领域也发挥着重要作用,不断推动着各个行业的智能化发展。

📚二、深度学习模型的分类与特点

📘(一)卷积神经网络(CNN)

卷积神经网络在图像处理等领域有着广泛的应用。它通过卷积操作对图像进行局部特征提取,能够有效地捕捉图像中的边缘、纹理等特征。例如,在图像分类任务中,CNN 可以自动学习到不同类别的图像所具有的独特特征,从而实现准确的分类。其具有平移不变性的特点,意味着无论图像中的物体在哪个位置,CNN 都能够识别出来。在目标检测任务中,CNN 能够定位图像中的目标物体,并确定其类别。此外,CNN 还在图像分割、图像生成等领域发挥着重要作用。

📘(二)循环神经网络(RNN)

循环神经网络在序列数据处理中表现出色。它的循环连接结构使其能够处理自然语言和时间序列数据,有效地捕捉序列中的时间依赖关系。例如,在自然语言处理中,RNN 可以对句子进行建模,理解词语之间的上下文关系。在时间序列数据预测中,RNN 可以根据历史数据预测未来的趋势。RNN 的记忆能力使其能够记住之前的信息,从而更好地处理序列数据。

📘(三)长短时记忆网络(LSTM)

LSTM 成功地解决了传统 RNN 中的梯度消失问题。它通过引入门控机制,能够选择性地遗忘和记住信息,从而更好地处理长序列数据。在长序列建模中,LSTM 表现出了显著的优势。例如,在机器翻译任务中,LSTM 可以有效地处理长句子,准确地翻译出源语言到目标语言。同时,LSTM 也在语音识别、情感分析等领域取得了良好的效果。

📘(四)门控循环单元(GRU)

GRU 具有参数较少、计算复杂性低的特点。它将 LSTM 中的遗忘门和输入门合并为一个更新门,简化了网络结构。在某些任务上,GRU 的性能与 LSTM 相当。例如,在文本生成任务中,GRU 可以生成连贯的文本,与 LSTM 相比,训练速度更快。

📘(五)自注意力模型(Transformer)

Transformer 在自然语言处理等任务中展现出了可并行化和高效性。它完全基于自注意力机制,摒弃了传统的循环和卷积结构。这使得 Transformer 可以并行地处理输入序列,大大提高了计算效率。在机器翻译任务中,Transformer 取得了显著的性能提升,成为了目前最先进的自然语言处理模型之一。

📘(六)生成对抗网络(GANs)

GANs 在生成数据和图像方面具有很大的优势。它通过生成器和判别器的对抗训练,能够生成逼真的图像和数据。例如,在图像生成任务中,GANs 可以生成高质量的图像,甚至可以模仿特定的艺术风格。然而,GANs 的训练复杂性较高,需要大量的计算资源和时间。同时,GANs 可能存在模式崩溃等问题,需要进一步的研究和改进。

📘(七)人工神经网络

人工神经网络在各种任务中具有强大的表示能力。它可以学习到复杂的函数关系,从而实现对数据的准确建模。然而,人工神经网络也面临着过拟合的挑战,即模型在训练数据上表现良好,但在测试数据上性能下降。此外,人工神经网络通常需要大量的标记数据进行训练,这在实际应用中可能是一个限制因素。

📚三、深度学习模型的优化策略

📘(一)数据预处理与增强

数据预处理和增强在深度学习中起着至关重要的作用。数据清洗可以去除数据中的噪声、缺失值和异常值,提高数据的质量。例如,在处理图像数据时,可以使用滤波器去除噪声,通过均值、中位数或最小最大值等方法填充缺失值,使用 Z - 分数、IQR 等方法处理异常值。
数据增强则通过对原始数据进行变换,生成新的数据,增加模型的训练集,提高模型的泛化能力。常见的数据增强方法包括翻转、旋转、缩放、扭曲等。以图像识别为例,通过对图像进行翻转、旋转等操作,可以增加图像数据集的多样性,使模型能够学习到不同角度和方向的物体特征,从而提高模型的性能。
归一化和标准化也是数据预处理的重要步骤。数据标准化将数据的均值和方差调整为 0 和 1,公式为 ,其中 是标准化后的值, 是原始值, 是均值, 是标准差。数据归一化将数据的值缩放到同一范围内,公式为 ,其中 是归一化后的值, 是原始值, 是最小值, 是最大值。

📘(二)模型架构优化

选择合适的网络结构是模型架构优化的关键。需要根据具体的任务和数据特点来平衡深度与宽度。如果任务复杂,数据量大,可以选择较深的网络结构,但也要注意避免过深导致的梯度消失问题。同时,可以采用模块化设计,将网络分成多个模块,每个模块具有特定的功能,便于调试和优化。
例如,在图像分类任务中,可以根据图像的分辨率和复杂度选择合适的卷积神经网络结构。对于高分辨率的图像,可以选择具有更多卷积层和更深层次的网络,以提取更丰富的特征。而对于低分辨率的图像或计算资源有限的情况,可以选择较浅的网络结构或轻量级的网络,如 MobileNet 等。

📘(三)训练过程优化

调整学习率是训练过程优化的重要手段之一。学习率决定了每次参数更新的步长,合适的学习率能够平衡收敛速度和稳定性。常见的学习率调度方法包括学习率衰减、周期性学习率和自适应学习率。例如,在训练初期可以使用较大的学习率加快收敛速度,随着训练的进行逐渐减小学习率,使模型在接近收敛时能够进行更精细的调整。
正则化和 dropout 技术可以减少过拟合。L1/L2 正则化通过在损失函数中加入权重的 L1 或 L2 范数,限制模型权重的大小。Dropout 在训练过程中随机丢弃一部分神经元,防止模型对训练数据的过拟合。批量归一化通过对每一批数据进行归一化,稳定训练过程,加速模型收敛。

📘(四)硬件与软件加速

利用 GPU/TPU 可以大大加速深度学习模型的训练。GPU 具有强大的并行计算能力,能够同时处理大量的数据。TPU 则是专门为深度学习设计的硬件加速器,具有更高的性能和效率。
进行分布式训练可以将训练任务分配到多个计算节点上,提高训练速度。同时,选择高效的深度学习框架和库,如 TensorFlow、PyTorch 等,也可以加速模型训练。这些框架和库提供了丰富的功能和优化的算法,能够提高模型的训练效率。

📘(五)模型剪枝与量化

模型剪枝通过移除不重要的神经元或连接,减少模型的计算量和内存占用。例如,可以根据权重的大小进行剪枝,将权重较小的连接移除或设为零。结构剪枝则是移除整个神经元或卷积核,减少模型的计算复杂度。
量化将模型参数从浮点数转换为整数等低精度表示,以减少模型的存储和计算需求。常见的量化方法包括静态量化、动态量化和训练中量化。静态量化在模型训练后进行量化,通常需要对模型进行校准以确定量化参数。动态量化在推理过程中进行量化,根据输入数据动态调整量化参数。训练中量化在训练过程中考虑量化误差,使模型在量化后仍能保持较高的精度。

📚四、深度学习模型的发展历程

📘(一)启蒙时期与早期模型

M-P 模型:在 20 世纪 40 年代,心理学家 Warren McCulloch 和数学家 Walter Pitts 提出了 M-P 模型。这是最早的神经网络模型,基于生物神经元的结构和功能进行建模。M-P 模型通过逻辑运算模拟了神经元的激活过程,为后续的神经网络研究奠定了基础。
Hebb 学习规则:1949 年,心理学家 Donald Hebb 提出了 Hebb 学习规则,该规则描述了神经元之间连接强度(即权重)的变化规律。Hebb 认为,神经元之间的连接强度会随着它们之间的活动同步性而增强,这一规则为后续的神经网络学习算法提供了重要的启示。

📘(二)感知器时代

感知器模型:在 1950 年代到 1960 年代,Frank Rosenblatt 提出了感知器模型。感知器是一种简单的神经网络结构,主要用于解决二分类问题。然而,由于其只能处理线性可分问题,对于复杂问题的处理能力有限,导致神经网络研究在一段时间内陷入了停滞。据统计,当时感知器在处理一些简单的线性可分数据集时,准确率可以达到 80% 以上,但对于稍微复杂一些的非线性可分问题,准确率则急剧下降。

📘(三)连接主义与反向传播算法的提出

连接主义:在 1960 年代末到 1970 年代,尽管神经网络研究遭遇低谷,但连接主义的概念仍在继续发展。连接主义强调神经元之间的连接和相互作用对神经网络功能的重要性。
反向传播算法:1986 年,David Rumelhart、Geoffrey Hinton 和 Ron Williams 等科学家提出了误差反向传播(Backpropagation)算法。这一算法允许神经网络通过调整权重来最小化输出误差,从而有效地训练多层神经网络。反向传播算法的提出标志着神经网络研究的复兴。例如,在图像识别任务中,使用反向传播算法训练的多层神经网络能够准确地识别出不同类别的图像,准确率相比传统方法有了显著提高。

📘(四)深度学习时代的来临

多层感知器(MLP):在反向传播算法的推动下,多层感知器(MLP)成为了多层神经网络的代表。MLP 具有多个隐藏层,能够学习复杂的非线性映射关系。比如在 NLP 中,神经网络可以对语义共现关系进行建模,成功地捕获复杂语义依赖。随着计算能力的提升和大数据的普及,基于多层神经网络的深度学习逐渐成为神经网络研究的热点领域。
卷积神经网络(CNN)与循环神经网络(RNN):在深度学习时代,卷积神经网络(CNN)和循环神经网络(RNN)等模型得到了广泛应用。CNN 特别适用于处理图像数据,而 RNN 则擅长处理序列数据如文本和语音。这些模型在图像识别、语音识别、自然语言处理等领域取得了显著的成果。随着研究的深入,神经网络模型不断发展和创新。例如,生成对抗网络(GAN)用于生成逼真的图像和视频;长短时记忆网络(LSTM)解决了传统 RNN 在处理长序列时的梯度问题;注意力机制(Attention Mechanism)提高了模型对重要信息的关注度;图神经网络(GNN)则用于处理图结构数据等。

📘(五)大模型时代

大模型基于缩放定律。简单来说就是,随着深度学习模型参数和预训练数据规模的不断增加,模型的能力与任务效果会持续提升,甚至展现出了一些小规模模型所不具备的独特 “涌现能力”。在大模型时代,最具影响力的模型基座无疑就是 Transformer 和 Diffusion Model。基于 Transformer 的 ChatGPT 具有革命性的意义,展示了人工智能技术的无限潜力。而基于 Diffusion Model 的 Sora 大模型在此惊艳了世人,进入多模态的人工智能时代。Transformer,最初是为自然语言处理任务而设计的,其核心思想是通过自注意力机制捕捉输入序列中的依赖关系。与传统的循环神经网络(RNN)相比,Transformer 能够并行处理整个序列,大大提高了计算效率。同时,由于其强大的特征提取能力,Transformer 架构作为基础模型,如 BERT、GPT 等,通过在海量数据上进行训练,获得了强大的通用表示能力,为下游任务提供了高效的解决方案。Diffusion Model 是一种基于扩散过程的生成模型,它通过逐步添加噪声到数据中,然后再从噪声中逐步恢复出原始数据,从而实现了对数据分布的高效建模。

📚五、深度学习模型的应用案例

📘(一)图像分类

应用场景:图像分类在众多领域有着广泛应用,如安防监控中对不同行为和物体的识别分类,电子商务中对商品图片的自动分类以方便检索等。
实际案例分析:2012 年,AlexNet 在 ImageNet 图像分类竞赛中取得了巨大成功。它采用了深度卷积神经网络结构,将图像分类的准确率大幅提升。AlexNet 由五层卷积层和三层全连接层组成,通过对大规模图像数据集的训练,能够自动学习图像中的特征,从而准确地将图像分类到不同的类别中。例如,在识别动物图片时,AlexNet 可以准确地判断出图片中的动物种类,准确率高达 80% 以上。
核心代码实现:

import tensorflow as tf
from tensorflow import keras
from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Densemodel = keras.Sequential([Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)),MaxPooling2D((2, 2)),Conv2D(64, (3, 3), activation='relu'),MaxPooling2D((2, 2)),Conv2D(128, (3, 3), activation='relu'),MaxPooling2D((2, 2)),Flatten(),Dense(128, activation='relu'),Dense(10, activation='softmax')
])model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])

📘(二)目标检测

应用场景:目标检测在自动驾驶、智能安防等领域起着关键作用。在自动驾驶中,车辆需要实时检测道路上的行人、车辆、交通标志等目标,以做出正确的决策。
实际案例分析:Faster R-CNN 是一种广泛应用的目标检测算法。它由区域提议网络(RPN)和 Fast R-CNN 组成,能够快速准确地检测图像中的目标。例如,在智能安防系统中,Faster R-CNN 可以准确地检测出监控画面中的异常行为和人物,准确率高达 90% 以上。
核心代码实现:

import torch
import torchvisionmodel = torchvision.models.detection.fasterrcnn_resnet50_fpn(pretrained=True)
model.eval()image = torch.randn(1, 3, 224, 224)
predictions = model(image)

📘(三)自然语言处理

应用场景:自然语言处理在机器翻译、文本分类、情感分析等任务中有着广泛应用。例如,在智能客服中,通过对用户问题的理解和回答,提高客户服务效率。
实际案例分析:BERT(Bidirectional Encoder Representations from Transformers)在自然语言处理领域取得了重大突破。它通过预训练和微调的方式,可以应用于各种自然语言处理任务。例如,在文本分类任务中,BERT 能够准确地判断文本的类别,准确率高达 95% 以上。
核心代码实现:

from transformers import BertForSequenceClassification, BertTokenizertokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')text = "This is a sample sentence."
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)

📘(四)语音识别

应用场景:语音识别在智能语音助手、语音翻译等领域有着广泛应用。例如,在智能语音助手中,用户可以通过语音指令控制设备,提高操作便利性。
实际案例分析:DeepSpeech 是一种基于深度学习的语音识别系统。它采用了卷积神经网络和循环神经网络相结合的结构,能够准确地识别语音内容。例如,在语音翻译任务中,DeepSpeech 可以准确地将语音翻译成不同的语言,准确率高达 90% 以上。
核心代码实现:

import deepspeechmodel = deepspeech.Model('path/to/model.pbmm')
audio = deepspeech.read_audio('path/to/audio.wav')
text = model.stt(audio)

📚六、深度学习模型的优势与挑战

📘(一)深度学习模型的优势

深度学习模型具有高度自动化和强大的泛化能力,这使得它在众多领域中表现出色。
高度自动化:深度学习模型可以自动学习特征,无需手动设计。例如,在图像分类任务中,传统的机器学习方法需要人工设计特征,如颜色直方图、纹理特征等,而深度学习模型可以直接从原始图像中学习到特征,大大减少了人工干预的工作量。据统计,使用深度学习模型进行图像分类的准确率可以达到 90% 以上,而传统机器学习方法的准确率通常在 70% 左右。
强大泛化能力:通过大量数据的训练,深度学习模型能够学习到数据中的通用模式,从而在未知数据上表现良好。例如,在自然语言处理任务中,经过大规模语料库训练的深度学习模型可以准确地理解和生成自然语言,即使面对从未见过的文本,也能给出合理的分析和回答。研究表明,深度学习模型在新数据上的准确率通常比传统机器学习方法高出 10% 至 20%。
非线性建模能力:深度学习可以对非线性问题进行建模和处理,可以处理各种复杂的问题和数据。例如,在金融市场预测中,深度学习模型可以考虑多种因素之间的复杂关系,如股票价格、宏观经济指标、公司财务数据等,从而更准确地预测市场走势。
并行计算能力:深度学习可以进行并行计算,可以快速处理大量数据和复杂问题。利用 GPU 等硬件加速设备,深度学习模型可以在短时间内处理大规模数据集。例如,在图像识别任务中,使用 GPU 加速的深度学习模型可以在几分钟内处理数万张图像,而传统的 CPU 计算则需要数小时甚至数天。
容错性:深度学习可以容忍一定程度的噪声和错误,可以处理不完美的数据和问题。在实际应用中,数据往往存在噪声和错误,深度学习模型能够通过学习数据中的主要特征,忽略一些噪声和错误,从而提高模型的鲁棒性。
适应性:深度学习可以适应各种数据类型和问题类型,可以处理图像、语音、文本等多种数据类型。不同类型的数据可以通过不同的深度学习模型进行处理,或者通过多模态深度学习模型同时处理多种类型的数据,为解决复杂问题提供了更多的可能性。
鲁棒性:深度学习可以处理大量数据和复杂问题,可以提高模型的鲁棒性和泛化能力。通过在大规模数据集上进行训练,深度学习模型可以学习到数据中的各种模式和变化,从而在面对新数据时具有更好的适应性和稳定性。

📘(二)深度学习模型的挑战

尽管深度学习模型具有诸多优势,但也面临着一些挑战。
数据依赖与标注问题:深度学习模型通常需要大量的标注数据来进行训练。然而,获取大量的标注数据不仅成本高昂,而且在某些领域(如医疗、金融等)中可能难以获取足够的标注数据。此外,标注数据的准确性也对模型的性能有重要影响。数据标注的偏差和噪声可能导致模型学习到错误的信息。例如,在医疗影像诊断中,标注数据的准确性直接影响到模型对疾病的诊断结果。如果标注数据存在错误或偏差,可能会导致模型给出错误的诊断建议,从而影响患者的治疗。
计算资源限制:深度学习模型的训练需要大量的计算资源,包括高性能计算机、GPU 和分布式计算集群等。这种计算资源的需求限制了深度学习在资源有限的环境中的应用。此外,随着模型规模的不断增大,计算资源的消耗也在不断增加。例如,一些大型的深度学习模型需要数百个 GPU 甚至更多的计算资源才能进行训练,这对于一般的研究机构和企业来说是难以承受的成本。
模型可解释性:深度学习模型通常具有复杂的结构,使得其决策过程难以解释。这导致在某些需要高度可解释性的应用中(如医疗、法律等),深度学习模型的应用受到限制。尽管有一些研究致力于提高深度学习模型的可解释性,但这一问题仍然没有得到完全解决。例如,在医疗领域,医生需要了解模型是如何做出诊断决策的,以便对诊断结果进行评估和解释。如果模型的决策过程不可解释,医生可能会对模型的结果产生怀疑,从而影响模型的应用。
泛化能力:尽管深度学习模型在训练数据上取得了很好的效果,但它们的泛化能力有时并不理想。当面临与训练数据分布不同的新数据时,模型的性能可能会显著下降。这限制了深度学习模型在实际应用中的通用性和稳定性。例如,在图像分类任务中,如果训练数据和测试数据来自不同的分布,深度学习模型的准确率可能会大幅下降。为了解决这一问题,研究人员通常采用数据增强、迁移学习等技术来提高模型的泛化能力。
对异常或复杂图像的处理能力不足:深度学习模型在处理异常或复杂的图像时可能遇到困难,如遮挡、模糊、光照变化、姿态变化等。这些因素可能导致模型预测错误,降低其在实际应用中的可靠性和准确性。例如,在自动驾驶中,车辆需要准确识别道路上的各种物体,包括被遮挡的行人、模糊的交通标志等。如果深度学习模型不能有效地处理这些异常情况,可能会导致交通事故的发生。
缺乏常识和上下文理解能力:深度学习模型通常只能根据输入的数据进行预测,缺乏像人类一样的常识和上下文理解能力。这可能导致模型在处理需要理解和推理的任务时表现不佳,如场景理解、物体关系识别等。例如,在回答问题任务中,如果问题涉及到常识性知识或上下文信息,深度学习模型可能无法给出正确的答案。
对抗样本的脆弱性:深度学习模型容易受到对抗样本的攻击,即经过精心设计的输入样本,可以误导模型做出错误的预测。这可能导致模型在安全性要求较高的应用中存在风险,如自动驾驶、面部识别等。例如,在面部识别系统中,如果攻击者制作了一个对抗样本的面具,可能会欺骗面部识别系统,从而获得非法访问权限。

到此这篇文章就介绍到这了,更多精彩内容请关注本人以前的文章或继续浏览下面的文章,创作不易,如果能帮助到大家,希望大家多多支持宝码香车~💕,若转载本文,一定注明本文链接。


整理不易,点赞关注宝码香车

更多专栏订阅推荐:
👍 html+css+js 绚丽效果
💕 vue
✈️ Electron
⭐️ js
📝 字符串
✍️ 时间对象(Date())操作

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/58621.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux学习_8

第七章命令解释器-shell 主要包括Linux中特殊符号,命令别名,命令历史 概述: shell:壳,命令解释器,负责解析用户输入的命令 type命令: 查看命令是内置命令、外置命名、alias命令 type -参数 命…

C++从入门到起飞之——红黑树封装map和set 全方位剖析!

目录 1、map和set的整体框架 2、map和set迭代器的实现 3、map支持[] 4、完整源码 set.h map.h RBTree.h 1、map和set的整体框架 因为map和set的底层都是红黑树,所以我们考虑用一个红黑树的类模版去实例化map和set对象!不过,map节点中存…

用Pyhon写一款简单的益智类小游戏——2048

文字版——代码及讲解 代码—— import random# 初始化游戏棋盘 def init_board():return [[0] * 4 for _ in range(4)]# 在棋盘上随机生成一个2或4 def add_new_tile(board):empty_cells [(i, j) for i in range(4) for j in range(4) if board[i][j] 0]if empty_cells:i,…

git仓库分支

操作 切换分支 git checkout 1.2.5 git checkout 1.3.0 使用命令切换分支之后,代码内容加载过后也是切换好的

突破挑战,创新前行 | 生信科技SOLIDWORKS 2025新品发布会·合肥站精彩回顾

2024年10月18日,由生信科技举办的首场SOLIDWORKS 2025新产品发布会在安徽合肥圆满落幕。现场邀请到制造业的专家学者们一同感受SOLIDWORKS 2025最新功能,探索制造业数字化转型之路。 合肥站活动日,由生信科技副总经理徐建开场。他以智造无界&…

《C Primer Plus》中文版第十六章习题

16.17 复习题 1. 下面的几组代码由一个或多个宏组成,其后是使用宏的源代码。在每种情况下代码的结果是什么?这些代码是否是有效代码?(假设其中的变量已声明)。 a. #define FPM 5280 dist FPM * miles; b. #define FEET 4 #define POD FEET FEET plort …

Linux·进程间通讯(管道)

从本节开始将使用vscode写代码,语言也切换成C,同时OS从centOS换成ubentu。 进程之间可能存在数据传输、资源共享、通知事件、进程控制等需求,但是进程又具有独立性,所以就需要专门的进程间通讯技术(ipc)来满足需求。进程间通讯(IP…

人工智能与伦理:我们应该如何平衡科技与人性?

内容概要 在这个瞬息万变的时代,人工智能的迅猛发展让我们面对前所未有的伦理困境。科技进步带来了便利,但同时也亟需我们反思如何对待人性。尤其是在实现算法透明性时,我们要确保每一个决策背后都能被理解与追溯,这不仅是对技术…

云服务器排查微信支付接口异常

1.官方文章 网络云排查工具安装方法 - 腾讯客服 2.官方文章 网络云排查工具使用常见场景以及排查方法 - 腾讯客服 3.商户平台查看 网络波动和实际接口日志出问题时间对照

前端内存空间(堆、栈、队列、拷贝、垃圾回收)

在了解前端内存空间前,我们先学习三种基本数据结构:堆、栈、队列。 栈 栈是一种线性的数据结构,它遵循后进先出(LIFO)的原则。栈的特点是只能在栈顶进行插入和删除操作,因此栈的底部是栈中的最小值。 栈是…

浮动+flex布局

一.浮动 1.介绍 2.效果 <style> .one{ width: 100px; height: 100px; background-color: red; float: left; } .two{ width: 200px; height: 200px; background-color: blue; float: right; } </style> </head> <body> <div class"one&quo…

安全日志记录的重要性

1024程序员节不仅是对技术的庆祝&#xff0c;也是我们审视自己工作中责任的重要时刻。在现代信息安全体系中&#xff0c;安全日志记录是最关键的环节之一。它不仅能帮助企业或开发者及时发现安全威胁&#xff0c;还能在事后追踪攻击源、分析事件并采取补救措施。因此&#xff0…

架构师备考-系统分析与设计(结构化方法)

定义 1978年&#xff0c;E.Yourdon 和 L.L.Constantine 提出了结构化方法&#xff0c;即 SASD 方法&#xff0c;也可称为面向功能的软件开发方法或面向数据流的软件开发方法。Yourdon 方法是20世纪80年代使用最广泛的软件开发方法。 结构化方法提出了一组提高软件结构合…

人工智能原理实验二:搜索方法

一、实验目的 本实验课程是计算机、智能、物联网等专业学生的一门专业课程&#xff0c;通过实验&#xff0c;帮助学生更好地掌握人工智能相关概念、技术、原理、应用等&#xff1b;通过实验提高学生编写实验报告、总结实验结果的能力&#xff1b;使学生对智能程序、智能算法等…

【AI应用】大模型工具如何助力文字创意工作(提示词Prompt+谷歌NotebookLM)

出发点&#xff1a;身处信息碎片和过载的时代&#xff0c;如何在日常工作学习中汇总并高效梳理知识&#xff1f;普通用户又如何激发AI大模型产出高质量的结果呢&#xff1f;本文将给出这两个问题的一些解决思路。 0、提纲&#xff1a; 提示词工程应知应会NotebookLM惊艳登场总…

springboot 使用 weixin-java-pay 支付demo

springboot引入依赖 <dependency><groupId>com.github.binarywang</groupId><artifactId>weixin-java-pay</artifactId><version>4.6.0</version></dependency>配置 wx:pay:appId: *********mchId: ********apiV3Key: ******…

剧本杀门店预约小程序,在线一键预约体验

剧本杀作为集社交、角色扮演、休闲娱乐为一体的游戏&#xff0c;吸引了年轻人的目光。当下&#xff0c;随着市场的发展&#xff0c;剧本杀行业正面临挑战&#xff0c;对于门店来说&#xff0c;如何找到新的发展方向&#xff0c;在市场中脱颖而出是重中之重&#xff01; 线上线…

SpringBoot技术:闲一品交易的新机遇

摘 要 随着科学技术的飞速发展&#xff0c;社会的方方面面、各行各业都在努力与现代的先进技术接轨&#xff0c;通过科技手段来提高自身的优势&#xff0c;闲一品交易平台当然也不能排除在外。闲一品交易平台是以实际运用为开发背景&#xff0c;运用软件工程原理和开发方法&…

柔性数组的使用

1.只有一个malloc的情况 //柔性数组的使用 #include<stdio.h> #include<stdlib.h> #include<errno.h> struct s {int i;int a[]; }; int main() {struct s* ps (struct s*)malloc(sizeof(struct s) 20 * sizeof(int));if (ps NULL){perror("malloc&…

从0到1,用Rust轻松制作电子书

我之前简单提到过用 Rust 做电子书&#xff0c;今天分享下如何用Rust做电子书。制作电子书其实用途广泛&#xff0c;不仅可以用于技术文档&#xff08;对技术人来说非常方便&#xff09;&#xff0c;也可以制作用户手册、笔记、教程等&#xff0c;还可以应用于文学创作。 如果…