大模型算法面试题(十五)

本系列收纳各种大模型面试题及答案。

1、大模型LLM进行SFT如何对样本进行优化

大模型LLM(Language Model,语言模型)进行SFT(Structured Fine-Tuning,结构化微调)时,对样本的优化是提升模型性能的关键步骤。以下是一些关于如何对样本进行优化的建议:

一、样本选择与预处理

  1. 针对性选择样本
    • 根据特定任务或领域的需求,选择具有代表性和多样性的样本。这些样本应覆盖任务的主要方面和边缘情况。
    • 优先选择高质量、标注准确的样本,避免使用错误或模糊的标注数据。
  2. 数据清洗
    • 去除重复、冗余或无效的样本,减少噪声数据的干扰。
    • 对样本进行格式化处理,确保输入数据的格式与模型训练要求一致。
  3. 数据增强
    • 通过同义词替换、句子重组、回译等方法增加样本的多样性,提高模型的泛化能力。
    • 使用数据增强技术生成更多的训练样本,特别是在样本量不足的情况下。

二、样本标注与质量控制

  1. 精细标注
    • 对样本进行精细标注,确保标注的准确性和一致性。
    • 使用多轮标注和审核机制,提高标注质量。
  2. 质量控制
    • 定期对标注数据进行质量检查,及时发现并纠正错误标注。
    • 建立反馈机制,允许标注人员或专家对标注结果进行反馈和修正。

三、样本加权与采样策略

  1. 样本加权
    • 根据样本的重要性和难度对样本进行加权处理,使模型在训练过程中更加关注重要或困难的样本。
    • 通过调整样本权重来平衡不同类别或领域的样本数量,避免模型出现偏差。
  2. 采样策略
    • 采用合适的采样策略,如随机采样、分层采样等,确保训练过程中样本的均匀性和代表性。
    • 在样本量较大的情况下,可以使用批量采样或在线采样的方式来提高训练效率。

四、结合模型特性进行优化

  1. 理解模型特性
    • 深入了解所使用的LLM模型的特性和优势,以便更好地利用这些特性进行样本优化。
    • 分析模型在特定任务上的表现,找出模型的优势和不足之处。
  2. 针对性优化
    • 根据模型特性对样本进行优化调整,如调整样本的输入格式、增加与模型特性相关的特征等。
    • 利用模型的特点来设计更有效的训练策略和损失函数,以提高模型的性能。

五、持续迭代与反馈

  1. 持续迭代
    • 在训练过程中不断监控模型的性能表现,并根据表现进行样本和训练策略的迭代优化。
    • 定期对模型进行评估和测试,确保模型在目标任务上的性能持续提升。
  2. 反馈机制
    • 建立用户反馈机制,收集用户对模型输出的评价和建议。
    • 根据用户反馈对样本和模型进行进一步的优化和调整。

综上所述,大模型LLM进行SFT时,对样本的优化需要从样本选择与预处理、标注与质量控制、加权与采样策略、结合模型特性进行优化以及持续迭代与反馈等多个方面入手。通过综合运用这些策略和方法,可以显著提高模型的性能和效果。

2、模型参数迭代实验步骤?

模型参数迭代实验步骤通常涉及多个关键阶段,旨在通过不断优化模型参数来提高模型的性能。以下是一个典型的模型参数迭代实验步骤概述:

一、实验准备

  1. 明确目标
    • 确定模型需要解决的具体问题或任务。
    • 设定可量化的性能评估指标,如准确率、召回率、F1分数等。
  2. 数据准备
    • 收集并整理实验所需的数据集。
    • 对数据进行预处理,包括清洗、标注、格式化等。
    • 划分数据集为训练集、验证集和测试集,通常比例为70%:15%:15%或类似比例。
  3. 环境搭建
    • 搭建实验所需的软硬件环境,包括安装必要的编程语言和库(如Python、TensorFlow、PyTorch等)。
    • 配置实验所需的计算资源,如GPU或CPU。

二、模型选择

  1. 选择合适的模型架构
    • 根据任务特点和数据集特性选择合适的模型架构,如神经网络、决策树、随机森林等。
  2. 初始化模型参数
    • 使用随机值、预训练权重或其他策略初始化模型参数。

三、模型训练

  1. 设置超参数
    • 确定学习率、批处理大小(batch size)、迭代次数(epoch)、正则化强度等超参数。
  2. 训练模型
    • 使用训练集数据对模型进行训练。
    • 在每个epoch结束后,使用验证集评估模型的性能,并记录关键指标。
  3. 参数更新
    • 根据损失函数和梯度下降等优化算法更新模型参数。
    • 可以采用小批量梯度下降(Mini-batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)等策略。

四、参数调优

  1. 手动调参
    • 基于实验经验和直觉,手动调整超参数,观察模型性能的变化。
  2. 自动调参
    • 使用网格搜索(Grid Search)、随机搜索(Random Search)或贝叶斯优化(Bayesian Optimization)等自动调参方法,在超参数空间内寻找最优参数组合。

五、模型评估

  1. 使用测试集评估模型
    • 在模型训练完成后,使用独立的测试集评估模型的最终性能。
    • 确保测试集在训练过程中未被使用,以保证评估结果的客观性和准确性。
  2. 性能分析
    • 分析模型在不同评估指标上的表现,识别模型的优点和不足。
    • 根据需要调整模型架构或参数设置,进一步优化模型性能。

六、迭代优化

  1. 反馈与迭代
    • 根据模型评估结果和性能分析,制定改进方案。
    • 重复上述步骤,不断迭代优化模型参数和架构,直到达到满意的性能表现。

七、实验记录与报告

  1. 记录实验过程
    • 详细记录实验过程中的关键步骤、参数设置、实验结果和性能分析等内容。
  2. 撰写实验报告
    • 根据实验记录撰写详细的实验报告,包括实验目的、方法、结果和结论等内容。

以上步骤提供了一个通用的模型参数迭代实验框架。在实际应用中,可以根据具体任务和数据集的特点进行适当的调整和扩展。

3、为什么需要进行参选微调?参数微调的原因有哪些?

进行参数微调(Fine-tuning)在机器学习和深度学习领域是非常重要的步骤,尤其是在处理特定任务或应用预训练模型到新的数据集时。以下是进行参数微调的主要原因:

  1. 任务特异性
    预训练模型通常是在大规模、广泛的数据集上训练的,这些数据集可能涵盖了多种任务和领域。然而,当我们将这些模型应用到具体任务时,如情感分析、图像分类或自然语言处理等,这些任务可能具有特定的数据分布和特征。通过微调模型参数,我们可以使模型更加适应特定任务的数据分布,从而提高性能。

  2. 数据差异性
    不同数据集之间存在差异,包括数据分布、特征表示、噪声水平等。直接使用预训练模型可能无法充分利用新数据集的特点,因为预训练过程中学习到的特征可能与新数据集不完全匹配。通过微调,模型可以学习到新数据集中特有的特征表示,从而提高在新数据集上的表现。

  3. 提高性能
    微调通常可以显著提高模型在特定任务上的性能。这是因为微调过程允许模型在已经学习到的通用知识基础上,进一步学习特定任务的细节和特征。这种学习过程是渐进的,有助于模型更好地适应新任务的需求。

  4. 减少训练时间和资源
    从头开始训练一个深度学习模型需要大量的时间和计算资源。而使用预训练模型进行微调可以显著减少训练时间和所需的资源。因为预训练模型已经学习到了大量有用的特征表示和模式识别能力,微调过程只需要在这些基础上进行微调即可。

  5. 解决过拟合问题
    在小型数据集上训练深度学习模型时,很容易出现过拟合问题。过拟合是指模型在训练数据上表现良好,但在测试数据上表现不佳的现象。使用预训练模型进行微调可以帮助缓解这个问题,因为预训练模型已经学习到了丰富的特征表示和泛化能力,这有助于模型在小型数据集上保持较好的泛化性能。

  6. 适应新的应用场景
    随着技术的发展和应用的拓展,新的应用场景不断涌现。这些新场景可能需要处理新的数据类型、解决新的问题或实现新的功能。通过微调预训练模型,我们可以快速地将模型应用到新的场景中,并根据具体需求进行定制和优化。

综上所述,参数微调是深度学习领域中提高模型性能、减少训练时间和资源、解决过拟合问题以及适应新应用场景的重要手段。

4、模型参数微调的方式有那些?你最常用哪些方法?

模型参数微调的方式多种多样,这些方法旨在通过调整模型参数来优化模型在特定任务上的性能。以下是一些常见的模型参数微调方式:

一、全微调(Full Fine-tuning)

  • 定义:全微调是指对整个预训练模型进行微调,包括所有的模型参数。在这种方法中,预训练模型的所有层和参数都会被更新和优化,以适应目标任务的需求。
  • 适用场景:通常适用于任务和预训练模型之间存在较大差异的情况,或者任务需要模型具有高度灵活性和自适应能力的情况。
  • 优缺点
    • 优点:可以获得更好的性能,因为模型的所有参数都被优化以适应目标任务。
    • 缺点:需要较大的计算资源和时间,且可能导致模型在原始任务上的性能下降(灾难性遗忘)。

二、部分微调(Partial Fine-tuning)

  • 定义:部分微调是指在微调过程中只更新模型的顶层或少数几层,而保持预训练模型的底层参数不变。
  • 具体方法
    • 微调顶层:只微调预训练模型的顶层,以适应新的任务。这种方法可以保留预训练模型的通用知识,同时通过微调顶层来适应特定任务。
    • 冻结底层:将预训练模型的底层固定不变,只对顶层进行微调。这有助于减少计算资源的使用,并防止底层参数被过度更新而破坏模型的通用性。
  • 适用场景:通常适用于目标任务与预训练模型之间有一定相似性的情况,或者任务数据集较小的情况。

三、参数高效微调(Parameter-Efficient Fine-tuning, PEFT)

  • 定义:PEFT是一种旨在通过微调少量参数就达到接近微调全量参数效果的方法。它包括多种具体技术,如Prompt Tuning、Prefix Tuning等。
  • 具体方法
    • Prompt Tuning:固定模型前馈层参数,仅仅更新部分embedding参数即可实现低成本微调大模型。通过精心设计的输入提示或模板来引导模型生成所需输出。
    • Prefix Tuning:在输入token之前构造一段任务相关的virtual tokens作为Prefix,训练时只更新Prefix部分的参数,而Transformer中的其他部分参数固定。
  • 优点:计算效率高,可以在GPU资源不足的情况下微调大模型。

四、迁移学习(Transfer Learning)

  • 定义:迁移学习是将预训练模型的知识迁移到新的任务中,以提高模型性能。它通常与微调技术结合使用。
  • 方法:通过微调预训练模型的顶层或冻结底层来适应新任务,同时利用预训练模型在大量数据上学到的通用知识。

我最常用的方法

在实际应用中,我最常用的微调方法会根据具体任务和数据集的特点来选择。对于大多数任务,如果计算资源允许,我倾向于使用全微调方法来获得最佳性能。然而,在资源受限的情况下,我会考虑使用部分微调或参数高效微调方法,如Prompt Tuning或Prefix Tuning,以平衡性能和计算资源。此外,迁移学习也是一种非常有用的技术,特别是在处理与预训练模型相似度较高的新任务时。

总的来说,没有一种微调方法是普遍适用的,选择哪种方法取决于具体任务的需求、数据集的特点以及可用的计算资源。

5、prompt tuning 和 prefix tuning在微调上的区别是什么?

Prompt Tuning和Prefix Tuning在微调大型语言模型(LLMs)时存在明显的区别,主要体现在它们对模型进行参数调整的具体位置和方式上。

Prompt Tuning

  1. 定义与核心思想
    • Prompt Tuning是一种针对LLMs的微调方法,其核心思想是在不改变模型主体参数的情况下,通过修改输入序列(即添加或调整一个提示词或模板)来引导模型的行为。
    • 在这种方法中,通常会冻结主模型的全部参数,而只对embedding层的部分参数进行更新。具体来说,是在训练数据前添加一段prompt,只训练prompt的表示层,然后将prompt的embedding和原有模型的embedding拼接在一起组成新的embedding。
  2. 操作方式
    • Prompt Tuning主要关注于输入序列的修改。它通过在输入序列中插入一个或多个精心设计的词汇项(tokens)或提示词(prompt),来向模型提供关于任务的额外信息或上下文。
    • 这些提示词可以是一个问题、一个描述或一个目标语句,它们能够帮助模型更好地理解任务要求,并据此调整其输出。
  3. 优势与应用
    • Prompt Tuning的优势在于其参数效率高,即只需要更新少量的参数即可实现模型的微调。
    • 这种方法在文本生成、摘要等任务中表现出色,因为它允许模型在不改变整体结构的情况下,通过调整输入来适应不同的任务需求。

Prefix Tuning

  1. 定义与核心思想
    • Prefix Tuning是另一种针对LLMs的微调方法,它通过在输入序列或模型内部自回归过程的初始状态中添加可学习的“前缀”参数来实现微调。
    • 与Prompt Tuning不同,Prefix Tuning不仅关注输入序列的修改,还涉及到模型内部计算的调整。
  2. 操作方式
    • 在Prefix Tuning中,一个可学习的“前缀”向量被添加到模型的每一层输入序列前(包括embedding层和模型每一层的输入)。
    • 这些前缀向量与输入序列一起作为注意力机制的输入,从而影响模型对输入序列的理解和表示。
    • 前缀向量在微调过程中是可学习的,它们可以根据特定任务进行调整,以优化模型的性能。
  3. 优势与应用
    • Prefix Tuning的优势在于其能够显著减少需要更新的参数数量,从而提高参数效率。
    • 同时,由于前缀向量是在模型内部自回归过程的初始状态中添加的,它们能够更直接地影响模型的生成行为。
    • 这种方法在问答、文本分类等任务中取得了良好的效果,因为它允许模型在不破坏原有知识的情况下引入新的知识,提高模型的泛化能力。

总结

Prompt Tuning和Prefix Tuning在微调LLMs时的主要区别在于它们对模型进行参数调整的具体位置和方式。Prompt Tuning主要关注输入序列的修改,通过添加提示词来引导模型的行为;而Prefix Tuning则更具体地将可学习的前缀向量应用于模型的每一层输入或内部自回归过程的初始状态中,以影响模型的表示和生成行为。两者都是有效的微调方法,但各自适用于不同的任务和数据集特点。

6、LLaMA-adapter 如何实现稳定训练?

LLaMA-Adapter通过一系列巧妙的设计和技术手段,实现了在微调过程中的稳定训练。以下是实现稳定训练的关键方法:

1. 使用可学习的适应提示(Adaption Prompts)

LLaMA-Adapter在LLaMA模型的顶层Transformer层中插入了一组可学习的适应提示(Prompts)。这些Prompts作为前缀与输入文本标记一起输入到模型中,用于指导模型生成高质量的响应。通过仅更新这些Prompts的参数,LLaMA-Adapter能够有效地减少需要训练的参数数量,从而加速训练过程并提高稳定性。

2. 引入零初始化的注意力机制(Zero-initialized Attention)

在训练初期,随机初始化的Prompts可能会引入较大的噪声,干扰模型的微调过程。为了解决这个问题,LLaMA-Adapter采用了零初始化的注意力机制。具体来说,它使用零向量初始化插入层的注意力机制中的关键组件(如查询、键和值矩阵),并在训练过程中逐渐调整这些参数。通过这种方式,LLaMA-Adapter能够首先保留LLaMA模型中的原始知识,并在训练过程中逐步融入新的指令信号,从而实现稳定的微调。

3. 应用可学习的门控因子(Gating Factor)

为了进一步控制Prompts在训练过程中的影响,LLaMA-Adapter引入了可学习的门控因子。这些门控因子被初始化为零,并在训练过程中逐渐增大。它们用于自适应地调节Prompts在注意力机制中的重要性,从而在保留预训练知识的同时逐步融入新的指令知识。通过这种方式,LLaMA-Adapter能够在不破坏原有模型结构的前提下,实现指令跟随能力的提升。

4. 冻结预训练模型参数

在微调过程中,LLaMA-Adapter冻结了LLaMA模型的主体参数,仅更新Prompts和少量与Prompts相关的参数。这种策略有助于保持模型的稳定性和泛化能力,避免因为过度微调而导致的性能下降。

5. 高效利用计算资源

LLaMA-Adapter通过仅更新少量参数和使用高效的训练策略(如分布式训练),显著降低了训练成本。在8个A100 GPU上,LLaMA-Adapter仅需要不到一小时的时间即可完成微调过程。这种高效的训练方式不仅提高了训练速度,还有助于减少计算资源的浪费。

综上所述,LLaMA-Adapter通过引入可学习的适应提示、零初始化的注意力机制、可学习的门控因子以及冻结预训练模型参数等策略,实现了在微调过程中的稳定训练。这些策略共同作用,使得LLaMA-Adapter能够在保持模型稳定性和泛化能力的同时,快速适应不同的指令跟随任务。

7、LoRA原理与使用技巧有那些?

LoRa(Long Range Radio)技术是一种基于Semtech公司开发的低功耗局域网无线标准,主要用于解决功耗与传输距离之间的矛盾问题。以下是对LoRa原理与使用技巧的详细解析:

一、LoRa原理

  1. 扩频调制技术
    • LoRa采用扩频调制技术(Chirp Spread Spectrum, CSS),这是一种基于线性频率调制(LFM)的调制方式。在传输过程中,LoRa通过线性频率调制产生“啁啾”信号,每个数据包的载波频率随着时间线性变化。这种调制方式允许信号在强干扰环境下保持良好的穿透力与抗多径衰落能力,从而实现远距离传输。
  2. 低功耗设计
    • LoRa设备及其通信协议被设计为低功耗的,这得益于其扩频调制技术和先进的前向纠错编码(FEC)技术。FEC技术增强了数据传输的可靠性,即使在信号强度较低的情况下也能保证一定的数据完整性,从而减少了重传次数,进一步降低了功耗。
  3. 长距离通信
    • LoRa技术通过扩频调制和长码调制(CSS),能够在同样的功耗条件下比其他无线方式传播更远的距离。其通信范围可以达到数公里到数十公里,非常适合于远距离物联网应用。
  4. 多速率支持
    • LoRa支持多种扩频因子选择,以适应不同的传输速率和距离需求。这意味着用户可以根据具体应用场景选择合适的扩频因子,以平衡传输距离和传输速率之间的关系。

二、LoRa使用技巧

  1. 网络规划
    • 在部署LoRa网络时,需要合理规划网关的位置和数量,以确保网络的覆盖范围和通信质量。同时,还需要考虑地形、建筑物等因素对信号传播的影响。
  2. 设备选型
    • 根据应用场景的需求选择合适的LoRa设备和模块。例如,在需要长时间运行的场景中,应选择低功耗、长电池寿命的设备;在需要高速率传输的场景中,则需要考虑使用支持更高扩频因子的设备。
  3. 参数配置
    • 合理配置LoRa设备的参数,如扩频因子、编码率、发射功率等,以优化通信性能和功耗。在实际应用中,可能需要通过实验和测试来确定最佳的参数配置。
  4. 安全防护
    • LoRa网络在安全性方面需要得到重视。虽然LoRaWAN协议已经加强了网络和数据的安全性,但开发者在构建自己的LoRa协议时仍需注意加密和认证机制的实现。
  5. 系统集成
    • LoRa技术通常与物联网平台、云平台等集成使用,以实现数据的收集、处理和分析。在系统集成过程中,需要注意接口协议、数据格式等方面的兼容性。
  6. 维护与优化
    • 定期对LoRa网络进行维护和优化,检查设备的运行状态、网络覆盖情况等指标,及时发现并解决问题。同时,根据实际应用情况对网络进行调整和优化,以提高整体性能。

综上所述,LoRa技术以其低功耗、长距离通信等特点在物联网领域得到了广泛应用。在使用LoRa技术时,需要充分了解其原理和使用技巧,并结合实际应用场景进行合理的规划和配置。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/876782.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux源码阅读笔记16-文件系统关联及字符设备操作

文件系统关联 设备文件都是由标准函数处理,类似普通文件。设备文件也是通过虚拟文件系统来管理的,和普通文件都是通过完全相同的接口访问的。 inode中设备文件的成员数据 虚拟文件系统每个文件都关联到一个inode,用于管理文件的属性。源码如…

【Go - context 速览,场景与用法】

作用 context字面意思上下文,用于关联管理上下文,具体有如下几个作用 取消信号传递:可以用来传递取消信号,让一个正在执行的函数知道它应该提前终止。超时控制:可以设定一个超时时间,自动取消超过执行时间…

Swift学习入门,新手小白看过来

😄作者简介: 小曾同学.com,一个致力于测试开发的博主⛽️,主要职责:测试开发、CI/CD 如果文章知识点有错误的地方,还请大家指正,让我们一起学习,一起进步。 😊 座右铭:不…

(十三)Spring教程——依赖注入之工厂方法注入

1.工厂方法注入 工厂方法是在应用中被经常使用的设计模式,它也是控制反转和单例设计思想的主要实现方法。由于Spring IoC容器以框架的方式提供工厂方法的功能,并以透明的方式开放给开发者,所以很少需要手工编写基于工厂方法的类。正是因为工厂…

如何从网站获取表格数据

1.手动复制粘贴 最简单的方法是直接在网页上手动选择表格内容,然后复制粘贴到Excel或其他表格处理软件中。这种方法适用于表格较小且不经常更新的情况。 2.使用浏览器插件 有许多浏览器插件可以帮助从网页中提取表格数据,例如: -TableCapt…

SSRF过滤攻击

SSRF绕过: 靶场地址:重庆橙子科技SSRF靶场 这个是毫无过滤的直接读取,但是一般网站会设置有对SSRF的过滤,比如将IP地址过滤。 下面是常用的绕过方式: 1.环回地址绕过 http://127.0.0.1/flag.php http://017700…

相机怎么选(不推荐,只分析)

title: 相机怎么选 tags: [相机, 单反相机] categories: [其他, 相机] 最近准备购买,相机怎么选,我去搜索了许多文章,整理了一篇小白挑选技术篇,供大家参考。 分类 胶片相机 需要装入胶卷才能使用的相机,拍照后可直…

永磁同步电机无速度算法--非线性磁链观测器

非线性磁链观测器顾名思义观测器的状态变量为磁链值,观测的磁链值收敛于电机实际磁链值,观测器收敛。非线性是由于观测器存在sin和cos项,所以是非线性观测器 一、原理介绍 表贴式永磁同步电机αβ轴电压方程: 将公式变换 定义状态变量X: 定…

Milvus 向量数据库进阶系列丨部署形态选型

本系列文章介绍 在和社区小伙伴们交流的过程中,我们发现大家最关心的问题从来不是某个具体的功能如何使用,而是面对一个具体的实战场景时,如何选择合适的向量数据库解决方案或最优的功能组合。在 “Milvus 向量数据库进阶” 这个系列文章中&…

Java实现打印功能

JPG图片文件格式打印实现 打印JPG图片格式的文件,本次采用的Java原生的打印方式。 public static void main(String[] argv) throws Exception {File file new File("E:\\a.jpg");String printerName "HP MFP M436 PCL6";//打印机名包含字串…

vite+vue3项目,开发时候正常,打包后router-view不渲染

这是个很奇怪的问题,但是基本上命名或者引入文件的方式导致的。要么文件名与系统的某些标签名一样,要么就是routes写成了routers。还有一种就是导入方式错误的 错误截图: 正确引入截图:

Flink大状态作业调优——DataStream篇

一、Flink 状态(State)简介 在流式计算中有些操作一次处理一个独立的事件(比如解析一个事件), 有些操作却需要记住多个事件的信息(比如窗口操作)。那些需要记住多个事件信息的操作就是有状态的。流式计算分为无状态计算和有状态计算两种情况。状态可以理…

Word题库转Excel关键字快速查询题库

一、前言 内部培训会有Word版本题库,考核时如果使用Word、Excel、PDF等文档进行关键字查询题目体验不佳。so,撸个软件吧!   20240728更新:支持更多题库类型。 二、Word题库转Excel 1、Word题库格式要求 内容格式要求事例题目…

在 Postman 中设置全局 token

目录 问题描述解决方案 问题描述 在使用 Postman 进行接口测试时,经常会遇到在 Header 中添加 token 的情况。当接口数量较多时,需要为每个接口进行设置,而且当 token 失效时需要重新获取并设置,这样一来效率较低。 解决方案 下…

wpf中开发独立模块功能和左侧1个菜单的框架演示

此篇文章适用于有一定经验的wpf开发者,并且是团队协作开发模式,并且业务与此比较相近的话,用起来非常的方便。 我们在开发wpf程序的时候,比如1,2个人,那肯定随便怎么开发,都没事,代码…

Matlab M_map工具箱绘制Interrupted Mollweide Projection

GMT自带了许多的地图投影,但是对于Interrupted Mollweide投影效果却不好。 作为平替的m_map工具箱中带有的投影类型可完美解决这一问题。 Interrupted Mollweide Projection长这样 全球陆地 全球海洋 使用Matlab工具箱m_map展示全球海平面变化的空间分布 addpath(…

【Dart 教程系列第 49 篇】什么是策略设计模式?如何在 Dart 中使用策略设计模式

这是【Dart 教程系列第 49 篇】,如果觉得有用的话,欢迎关注专栏。 博文当前所用 Flutter SDK:3.22.1、Dart SDK:3.4.1 文章目录 一:什么是策略设计模式?二:为什么要使用策略设计模式&#xff1…

UG NX2406 安装教程

软件介绍 UG是一个交互式CAD/CAM(计算机辅助设计与计算机辅助制造)系统,它功能强大,可以轻松实现各种复杂实体及造型的建构。 它在诞生之初主要基于工作站,但随着PC硬件的发展和个人用户的迅速增长,在PC上的应用取得了迅猛的增长…

西蒙学习法

西蒙学习法 一根筋,挖死坑;会思考,持续不断的思考;会问问题,有深度的问题;一直想一个问题的解决办法; 资料 《世界十大学习方法》之西蒙学习法

【HarmonyOS】应用推送使用个推SDK如何实现?

【HarmonyOS】应用推送使用个推SDK如何实现? 前言 个推和极光都是市面上很成熟的推送第三方SDK了。今天讲讲个推SDK在鸿蒙中如何集成使用。 存在即合理,三方SDK推送给我们带来了极大的好处,首先在服务器后台处理一套API就可搞定&#xff0…