【扩散模型系列2】DiT 《Scalable Diffusion Models with Transformers》论文阅读

文章目录

  • 摘要
  • 1. 前言
  • 2. 相关工作
      • Transformers
      • DDPMs
      • 架构复杂度
  • 3. 扩散Transformer
      • 3.1 准备知识
        • 扩散公式
        • Classifier-free Guidance
        • LDMs
      • 3.2. Diffusion Transformer Design Space
        • Patch化
        • DiT模块设计
        • 模型大小
        • Transformer Decoder
  • 4. 实验设置
      • 训练
      • 扩散
      • 评估指标
      • 计算
  • 5. 实验
      • DiT block 设计
      • 模型大小和patch大小
      • DiT Gflops 对改进模型很重要
      • 更大的 DiT 模型计算效率更高
      • 缩放可视化
    • 5.1. State-of-the-Art Diffusion Models
        • 256*256 ImageNet
        • 512*512 ImageNet
    • 5.2. Scaling Model vs. Sampling Compute
      • 总结
  • 参考资料

《Scalable Diffusion Models with Transformers》

《基于transformer的可扩展扩散模型》

论文地址:
https://arxiv.org/pdf/2212.09748.pdf

项目地址:
https://github.com/facebookresearch/DiT

摘要

论文提出了一类使用transformer的扩散模型。 将其中的主干网络 U-Nettransformer替代 ,以获取更好的效果。

实验证明了transformer架构在扩散模型上的scalability能力,分析发现 DiTs速度更快(Gflops更高),并且始终具有较低的FID(FID是反应生成图片和真实图片的距离,数据越小越好)。

1GLOPs=10亿次浮点运算。是Paper里比较流行的单位。

FID是反应生成图片和真实图片的距离,数据越小越好

最大的模型DiT-XL/2ImageNet数据集,类别条件生成任务上 512×512和256×256 表现优于所有先前的扩散模型,256×256上实现了SOTAFID指标(2.27)。

1. 前言

trasnformer的提出使机器学习经历复兴。在过去的五年中,用于自然语言处理,视觉和其他几个领域的神经架构基本上都包含trasnformer。许多图像级通用模型仍然坚持这一趋势。transformer在自回归模型得到广泛使用,但是在其他通用建模框架中采用的较少。例如,扩散模型一直处于图像级最新进展的前沿生成模型,然而,它们都采用了卷积U-Net架构作为主干。

Ho等人的开创性工作首次引入了扩散模型的U-Net主干。最初我们看到像素级自回归模型和传统GANs的成功,U-Net是从Pixel CNN++继承而来。U-Net是卷积网络,主要由ResNet块组成。在与标准的U-Net相比,额外的 spatial self-attention blockstrasnformer中是必不可少的组成部分,穿插在较低分辨率下。Dhariwal和Nichol取消了U-Net的几个结构 ,例如注入条件信息的adaptive normalization layers 和 卷积层中的卷积通道数。然而,Ho等人提出的U-Net网络的高层设计在很大程度上保持完整。

通过这项工作,我们旨在揭开扩散模型的架构选择的意义,并为未来生成建模研究提供经验基线。我们表明U-Net归纳偏差对扩散模型的性能表现不是至关重要的,并且可以很容易地将它们重新与transformer等标准设计放在一起。结果就是,扩散模型很好地从结构上进行统一,符合最新的发展趋势。 通过继承来自其他领域的最佳实践和训练方法,如以及保持良好的性能,如可扩展性,鲁棒性和效率。标准化的架构将会也为跨领域研究开辟了新的可能性。

本文主要研究基于transformer的一类新的扩散模型。我们称它们为 Diffusion Transformers,或简称DiTsDiTs遵循的是的最佳实践视觉transformer (vit),已被证明可以比传统的视觉识别更有效的缩放卷积网络(例如ResNet)。

更具体地说,本文研究了不同规模的transformer在 网络复杂性vs样本质量 之间的平衡。通过在潜在扩散模型(LDMs)框架下构建 DiT设计空间并进行基准测试,其中扩散模型在VAE的潜空间中训练,我们可以成功用transformer替换U-Net主干。我们进一步显示DiTs是扩散模型的可扩展架构:网络计算复杂性(由Gflops测量)与样本质量(测量FID)。通过简单地扩大DiT和训练LDM有了高容量的骨干网(118.6 Gflops),我们可以做到在class有条件的256 × 256 ImageNet生成基准上取得了2.27 FID的最新结果。

2. 相关工作

Transformers

transformer已经取代了跨语言、视觉、强化学习 和元学习 领域特定架构。他们在不断增加的模型大小、训练计算和语言数据下显示出显著的扩展性,作为通用自回归模型和除了语言,transformer已经训练自回归预测像素。他们也在离散编码上训练过 自回归模型和掩码生成模型 ;前者具有良好的扩展性能多达20B参数。最后,transformer已经在DDPM中探索非空间数据合成。例如,对在DALL·E 2中生成CLIP图像嵌入。

在本文研究了transformer的缩放特性 用作图像扩散模型的主干。

DDPMs

去噪扩散概率模型,Denoising diffusion probabilistic models (DDPMs)

扩散和基于分数的生成模型 在图像生成尤其成功。在许多情况下,图像的性能优于 迭代对抗网络(GANs)。

过去的两年,DDPMS的改进很大程度上是由采样技术改进带来的,最著名的分类指导,重新制定扩散模型预测噪声而不是像素,并使用级联DDPM piplines,低分辨率的基础扩散模型与上采样器并行训练 。对于上面列出的所有融合模型,backbone架构选择了卷积U-Nets。当前的Work引入了一种新颖、高效的在DDPMS中引入attention,而我们研究纯transformer。

架构复杂度

对于图片生成的迭代过程,我们可以使用参数量来衡量不同模型的复杂度。一般而言,参数量来评估模型复杂度不是很合适,因为参数量并不能代表模型的计算复杂度,比如当模型参数量相同时,图片分辨率不同会导致计算复杂度上较大的差异。所以文章采用Gflops来衡量模型架构的复杂度。

3. 扩散Transformer

3.1 准备知识

扩散公式
  • DDPM 主要分为两个过程:

    • forward 加噪过程(从右往左):加噪过程是指向数据集中的真实图像逐步加入高斯噪声, 加噪过程满足一定的数学规律,不需要学习
    • reverse 去噪过程(从左往右):去噪过程是指对加了噪声的图片逐步去噪,从而还原出真实图像。去噪过程则采用神经网络模型来学习。这样一来,神经网络模型就可以从一堆杂乱无章的噪声图片中生成真实图片了。
      在这里插入图片描述

扩散模型需要训练反向过程
输入 x t , 输出 x t − 1 输入x_t, 输出x_t-1 输入xt,输出xt1
扩散过程的nosie scheduler采用简单的linear scheduler(timesteps=1000,beta_start=0.0001,beta_end=0.02),这个和SD是不同的。

其次,DiT所使用的扩散模型沿用了OpenAI的**Improved DDPM,相比原始DDPM一个重要的变化是不再采用固定的方差,而是采用网络来预测方差**。在DDPM中,生成过程的分布采用一个参数化的高斯分布来建模。

在这里插入图片描述

Classifier-free Guidance

模型在训练时,使用一个网络架构优化两个模型(uncond,cond)。众所周知,与通用采样技术相比,无分类器指导可以产生显着改进的样本,并且这种趋势也适用于DiT模型。

LDMs

潜在扩散模型,我们使用现成的卷积VAE和基于Transformer的DDPM。

3.2. Diffusion Transformer Design Space

DiTs 模型架构图,如下所示:
在这里插入图片描述

  • 左部分:我们训练了传统的latent DiT 模型。输入的latent被分解为patches , 并经过几个 DiT blocks;

  • 右部分:是 DiT blocks内部的详细结构。

Patch化

DiT的输入是通过VAE后的一个稀疏的表示z(输入为256×256×3的图片,输出得到压缩后的latent为32×32×4),其中采用的autoencoder是SD所使用的KL-f8,这就降低了扩散模型的计算量。

然后将输入转成patch,文章采用超参p=2,4,8进行对比实验。
在这里插入图片描述

DiT模块设计
  • **In-context **

    in-context条件是将时间步t 的embedding 和c 作为额外的token拼接到 DiT的输入序列中;

    输入:latent image, t的embedding 和 类别标签c

    将两个embeddings看成两个tokens合并在输入的tokens中,这种处理方式有点类似ViT中的cls token,实现起来比较简单,也不基本上不额外引入计算量。

  • Cross-attention

    DiT结构与Condition交互的方式,与原来U-Net结构类似;将两个embeddings拼接成一个数量为2的序列,然后在transformer block中插入一个cross attention,条件embeddings作为cross attention的key和value;这种方式也是目前文生图模型所采用的方式,它需要额外引入15%的Gflops。

  • Adaptive layer norm(adaLN)

    采用adaLN,这里是将time embedding和class embedding相加,然后来回归scale和shift两个参数,这种方式也基本不增加计算量。

  • adaLN-zero

    采用zero初始化的adaLN,这里是将adaLN的linear层参数初始化为zero,这样网络初始化时transformer block的残差模块就是一个identity函数;另外一点是,这里除了在LN之后回归scale和shift,还在每个残差模块结束之前回归一个scale。

上面四种嵌入,adaLN-Zero最好,DiT默认这种方式来嵌入条件embedding。DiT发现adaLN-Zero最好,但是这种方式只适合这种只有类别信息的简单条件嵌入,只需要引入一个class embedding,但对于文生图来说,条件往往是序列化的text embeddings,因此采用cross-attention通常是更合适的方式。

模型大小

与ViT大小相似,分别使用DiT-S、DiT-B、DiT-L和DiT-XL(2.5G),Gflops从0.3到118.6。
在这里插入图片描述

Transformer Decoder

在Transformer最上层需要预测噪音,因为Transformer可以保证大小与输入一致,所以在最上层使用一层线性进行decoder。

在最后一个DiT块之后,我们需要将我们的图像标记列解码为输出噪声和输出对角协方差预测。
这两个输出的形状都等于原始的spatial输入。我们使用标准的线性解码器来完成这项工作。

我们应用最终层范数(如果使用adaLN,则为自适应)和lin将每个token提前解码为p×p×2C张量,其中C为
空间输入到DiT的通道数。最后, 将解码的token重新排列到其原始空间中布局以获得预测的噪声和协方差。

4. 实验设置

我们探索了DiT 设计空间,并研究了模型类别的扩展特性。

模型使用 【结构/patch数量】 方式命名,比如【DiT-XL/2】表示模型采用DiT-XL,patch size为2。

训练

在ImageNet 256×256和512×512分辨率的数据集上训练 条件类别的 latent DiTs。初始化最后一层线性层为0,另外,其他初始化都与ViT一致。训练模型采用AdamW,常量学习率1e-4,no weight decay,batch size为256,数据增广仅使用水平翻转。和之前的很多工作不同,此处没有使用学习率warmup和正则化。

尽管没有使用这些技术,训练非常稳定,在所有模型配置中,我们没有观察到任何训练transformer时常见的峰值损失。和很多生成模型相同,我们在训练中保持了 exponential moving average (EMA) (decay 0.9999)。所有的结果都使用了EMA model。我们在所有DiT模型大小和patch 大小上使用完全相同的训练超参数。训练超参数大部分来源于ADM,并且我们并没有进行 learning rates, decay/warm-up, schedules, Adam, β1*/ β*2 or weight decays的调参

扩散

我们使用Stable Diffusion中一个现成的预训练变分自编码器。

VAE encoder使用下采样参数8—— 将RGB图像256×256×3的图像编码到32×32×4的隐空间,

扩散模型作用于隐空间,采样得到新的 latent后,使用VAE decoder将32×32×4的隐空间还原到256×256×3的图像。

我们保留了ADM 中的超参数,同时沿用了标签 和时间步embedding 的方法,扩散过程的nosie scheduler采用简单的linear scheduler(timesteps=1000,beta_start=0.0001,beta_end=0.02),

评估指标

我们使用FID测量扩展性能, FID是反应生成图片和真实图片的距离,数据越小越好。

在与之前的论文进行比较时,我们遵循惯例并使用250 DDPM 采样步骤报告 FID-50K。众所周知,FID对小范围实现很敏感。

为了保证对比的公平性,本文中移植的所有值都是通过导出样本和获得的使用ADM的TensorFlow评估套件。

本节中报告的FID 值不使用无分类的,除非另有说明。

另外我们增加了 Score [51], sFID [34] and Precision/Recall [32] 作为第二评价指标。

计算

我们在JAX上实现了所有的模型,并在TPU-v3 pods上进行训练。

DiT-XL/2, 是计算密集的模型,在全局批量大小为256的TPU v3-256 pod上以大约5.7次迭代/秒的速度进行训练

5. 实验

DiT block 设计

我们训练四个Gflop最高的DiT-XL/2模型,每个使用不同的块设计-

  • in-context(119.4 Gflops)

  • cross-attention (137.6 Gflops)

  • adaptive layer norm(adaLN, 118.6 Gflops)

  • adaLN- Zero(118.6 Gflops) ,蓝色,FID最低,效果最好

我们在训练过程中测量FID。如下图所示
在这里插入图片描述

结果显示在400 k迭代后,adaLN-Zero实现的FID是in-context FID的一半, 表明条件作用机制对模型的质量很重要。

初始化也很重要——adaLNZero,它将每个DiT块初始化,显著优于 vanilla adaLN。

在本文中,所有模型都将使用adaLN-Zero DiT块。

模型大小和patch大小

我们训练了12个DiT models,模型配置(S, B, L, XL)和patch size(8、4、2)。

注意,DiT-L和DiT-XL的 Gflops是很接近的

图2(左)给出了不同Gflop模型及其在400K训练迭代时的FID。

在所有情况下,我们发现模型大小越大,patch size 越小,产生的扩散模型越好。

在这里插入图片描述

图6 (top)在固定patch size的情况下,模型越大,FID越小

图6 (bottom)在固定模型 size 的情况下, patch size越小,FID越小

在这里插入图片描述

DiT Gflops 对改进模型很重要

图6的结果表明,参数计数并不是唯一决定DiT模型的质量。

当模型size保持不变,patch大小减少,transformer的总参数有效保持不变(actually,总参数略有下降),只有

Gflops增加了。

这些结果表明,模型Gflops实际上是提高性能的关键。

为了进一步研究,我们在400K训练步骤中绘制FID-50K。图8中的模型Gflops。

结果表明,不同的DiT配置会获得相似的FID值,它们的Gflops总量相似(例如DiT-S/2和DiT-B/4)。

发现模型Gflops和FID-50K之间存在很强的负相关性,表明额外的模型计算是改进DiT模型的关键因素。

在图 12(附录)中,我们发现这种趋势适用于其他像Inception分数这样的指标。

更大的 DiT 模型计算效率更高

在图9,我们绘制适用于所有DiT训练模型FID函数。

我们评估了训练计算:Gflops · batch size · training steps ·3,其中的因子3大致将向后传递近似为两次和前向传

递一样计算量。

我们发现即使是小的DiT 模型,训练时间很长时, 相比训练少量step的较大DiT模型也会变得计算效率低。

类似地,当控制Gflops时,我们发现除了patch size之外, 不同配置的模型也会有不同的性能。

例如,XL/4在大约10的10次方Gflops后的表现要优于XL/2。

缩放可视化

我们将缩放的效果可视化如图7中的样本质量。

在400K训练步骤中,我们使用相同的起始噪声,从我们的12个DiT模型中的每个模型中sample图像

例如,对噪声和类标签进行采样。

这让我们可以直观地解释缩放如何影响DiT sample质量。

实际上,扩展了模型的大小和数量token的使用可以显著提高视觉质量。

5.1. State-of-the-Art Diffusion Models

256*256 ImageNet

根据我们的缩放设置,我们训练了最高Gflops的模型 DiT-XL/2, for 7M steps。

figures1中展示了生成的样本。

我们还和当前类别条件生成模型进行了对比,如表2所示

当使用无类别引导时 , DiT-XL/2 表现优于所有先前的扩散模型,将之前最好的FID-50K LDM 的3.6降低到2.27.

图2(右)表示DiT-XL/2 (118.6 Gflops) 计算高效 相比latent space U-Net models like LDM-4 (103.6 Gflops) ,

并且比像素空间U-Net 更有效,如ADM (1120 Gflops)或ADM- u (742 Gflops)。

我们的模型相比之前的生成式模型包括StyleGAN-XL, 都获得了更低的FID。

最后,我们还发现DiT-XL/2相比LDM-4 和 LDM-8 获得了更高的recall。

当训练到2.35M steps时, XL/2 以FID2.55同样优于先前所有的扩散模型。
在这里插入图片描述

512*512 ImageNet

我们在ImageNet的分辨率为512 × 512上,训练一个新的DiT-XL/2模型,迭代次数为3M,使用与256 × 256模型相

同的超参数。

patch大小为2,XL/2模型总共处理1024个tokens的标记,64 × 64 × 4 input latent(524.6Gflops)。

表3显示了与最新技术的比较方法。

XL/2再次优于所有先前的扩散模型在此分辨率下,将之前的最佳FID 3.85(ADM ) 改进为3.04。

即使增加了token的number, XL/2仍然是计算高效的。

例如 ADM使用1983 Gflops, ADM-U使用2813 Gflops; XL/2使用了524.6 Gflops。

我们在图1和附录中展示了高分辨率XL/2模型的示例

5.2. Scaling Model vs. Sampling Compute

扩散模型的独特之处在于,它们可以在训练后通过增加模型的数量来使用额外的计算生成图像时的采样步骤。

鉴于模型Gflops对样本质量的影响,在本节中,我们研究较小模型的计算DiT是否可以胜过较大模型
一种是通过使用更多的采样计算。我们计算FID, 对于经过400K训练步骤的所有12个DiT模型,我们使用[16, 32, 64, 128, 256, 1000]每个图像的采样

步骤。考虑一下DiT-L/2 使用1000步采样和DiT-XL/2的128步采样。

在这种情况下,L/2使用80.7 Tflops对每个图像进行采样; XL/2对每个样本的计算量减少了5倍,即15.2 tflops。尽管如此,XL/2有更好的FID-10K (23.7vs 25.9)。一般来说,上扩采样计算不能弥补模型计算的不足

总结

本文介绍扩散transformer (DiTs),一种简单的基于transformer的扩散模型骨干,表现优于之前的U-Net模型,并继承了transformer模型类的优秀可扩展特性。考虑到有希望的扩展结果,未来的工作应该
继续将dit扩展到更大的模型和token计数。DiT还可以作为文本到图像模型(如DALL·E 2和稳定扩散)的基本框架。

参考资料

https://zhuanlan.zhihu.com/p/557971459
https://blog.csdn.net/u012193416/article/details/134268353

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/719456.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Material UI 5 学习01-按钮组件

Material UI 5 学习01-按钮组件 一、安装Material UI二、 组件1、Button组件1、基础按钮2、variant属性3、禁用按钮4、可跳转的按钮5、disableElevation属性6、按钮的点击事件onClick 2、Button按钮的颜色和尺寸1、Button按钮的颜色2、按钮自定义颜色3、Button按钮的尺寸 3、图…

MacOS包管理工具homebrew使用教程

MacOS包管理工具homebrew使用教程 1.概述与安装2.基本使用3.其他常用命令 1.概述与安装 homebrew是Mac OS X上的强大的包管理工具,可以高效管理各种软件包 安装: 1、安装xcode: xcode-select --install2、一行命令下载: /bin…

DreamTalk:单张图像即可生成逼真人物说话头像动画,助力AI数字人落地

“DreamTalk: When Expressive Talking Head Generation Meets Diffusion Probabilistic Models” DreamTalk是一个基于扩散的音频驱动的富有表现力的说话头生成框架,可以生成不同说话风格的高质量的说话头视频。DreamTalk对各种输入表现出强大的性能,包…

Thingsboard本地源码部署教程

本章将介绍ThingsBoard的本地环境搭建,以及源码的编译安装。本机环境:jdk11、maven 3.6.2、node v12.18.2、idea 2023.1、redis 6.2 环境安装 开发环境要求: Jdk 11 版本 ;Postgresql 9 以上;Maven 3.6 以上&#xf…

【Java】Base理论的核心思想和理论三要素

目录 简介 BASE 理论的核心思想 BASE 理论三要素 1. 基本可用 2. 软状态 3. 最终一致性 总结 简介 BASE 是 Basically Available(基本可用) 、Soft-state(软状态) 和 Eventually Consistent(最终一致性&#xf…

财报解读:基本盘稳定后,联想如何进一步抢占AI时代?

从2021年下半年开始,受诸多因素影响,消费电子行业始终处在承压状态,“不景气”这一关键词屡次被市场提及。 但寒气没有持续,可以看到,消费电子行业正在逐渐回暖。国金证券在今年1月的研报中就指出,从多方面…

#WEB前端(CCS常用属性,补充span、div)

1.实验: 复合元素、行内元素、块内元素、行内块元素 2.IDE:VSCODE 3.记录: span为行内元素:不可设置宽高,实际占用控件决定分布空间。 div为块内元素:占满整行,可以设置宽高 img为行内块元…

Unity(第二十三部)导航

你可以使用 unity官方提供的 unity导航组件或第三方 unity导航组件,以实现游戏中角色或其他物体的导航。 unity导航组件通常具有多种导航模式,如飞行模式、步行模式、车辆模式等,可以根据不同的需求选择合适的模式。同时,unity导…

2023年全国职业院校技能大赛中职组大数据应用与服务赛项题库参考答案陆续更新中,敬请期待…

2023年全国职业院校技能大赛中职组大数据应用与服务赛项题库参考答案陆续更新中,敬请期待… 武汉唯众智创科技有限公司 2024 年 2 月 联系人:辜渝傧13037102709 题号:试题01 模块二:数据获取与处理 (一)…

Ainx的全局配置

📕作者简介: 过去日记,致力于Java、GoLang,Rust等多种编程语言,热爱技术,喜欢游戏的博主。 📗本文收录于Ainx系列,大家有兴趣的可以看一看 📘相关专栏Rust初阶教程、go语言基础系列…

【S32DS报错】-7-程序进入HardFault_Handler,无法正常运行

【S32K3_MCAL从入门到精通】合集: S32K3_MCAL从入门到精通https://blog.csdn.net/qfmzhu/category_12519033.html 问题背景: 在S32DS IDE中使用PEmicro(Multilink ACP,Multilink Universal,Multilink FX&#xff09…

【网站项目】182在线作业管理系统

🙊作者简介:拥有多年开发工作经验,分享技术代码帮助学生学习,独立完成自己的项目或者毕业设计。 代码可以私聊博主获取。🌹赠送计算机毕业设计600个选题excel文件,帮助大学选题。赠送开题报告模板&#xff…

【Python】进阶学习:pandas--describe()函数的使用介绍

🐍【Python】进阶学习:pandas——describe()函数的使用介绍 🌈 个人主页:高斯小哥 🔥 高质量专栏:Matplotlib之旅:零基础精通数据可视化、Python基础【高质量合集】、PyTorch零基础入门教程&am…

绘图机器 - 华为OD统一考试(C卷)

OD统一考试(C卷) 分值: 100分 题解: Java / Python / C 题目描述 绘图机器的绘图笔初始位置在原点(0, 0),机器启动后其绘图笔按下面规则绘制直线: 1)尝试沿着横向坐标轴…

支持向量机 SVM | 线性可分:硬间隔模型公式推导

目录 一. SVM的优越性二. SVM算法推导小节概念 在开始讲述SVM算法之前,我们先来看一段定义: 支持向量机(Support VecorMachine, SVM)本身是一个二元分类算法,支持线性分类和非线性分类的分类应用,同时通过OvR或者OvO的方式可以应用…

长贵对赵本山说:你需要我们家大脚,我立马给你配双大鞋!

长贵对赵本山说:你需要我们家大脚,我立马给你配双大鞋! --小品《乡村爱情》(中2)的台词 表演者:赵本山 于月仙 王小利 唐鉴军等 (接上) 哈哈哈 伊拉克啊 这地方也不产这玩意吧 …

Chat GPT:AI聊天机器人的革命性突破!

一、引言 近年来,人工智能(AI)技术的发展日新月异,其中最具代表性的成果之一便是Chat GPT。这款基于自然语言处理(NLP)技术的聊天机器人,以其高度智能、灵活多变的特点,迅速吸引了全…

笔记74:在SLAM建图过程中,为什么要使用【障碍物点云配准算法】和【里程计估算算法】结合的方法

仅使用【障碍物点云配准算法】,很容易导致在一条长通道中,因为前后两帧的雷达点云图过于相似,导致特征匹配一直完全重合,使得机器人建图一直停留在原地,但实体机器人早就沿着通道跑向远端了; 使用Hector_ma…

(学习日记)2024.03.02:UCOSIII第四节:创建任务

写在前面: 由于时间的不足与学习的碎片化,写博客变得有些奢侈。 但是对于记录学习(忘了以后能快速复习)的渴望一天天变得强烈。 既然如此 不如以天为单位,以时间为顺序,仅仅将博客当做一个知识学习的目录&a…

这是开玩笑吗?加个工具,WPS与Excel表格变成了应用系统

表格处理数据简单快捷,是个人用户的首选。然而,当企业长期使用,成本表、客户表、销售表等堆积如山,寻找所需表格如同大海捞针,稍有不慎便可能导致数据丢失、混乱。即便使用WPS和Excel这样的表格软件,处理大…