【机器学习】机器学习与大模型在人工智能领域的融合应用与性能优化新探索

文章目录

    • 引言
    • 机器学习与大模型的基本概念
      • 机器学习概述
        • 监督学习
        • 无监督学习
        • 强化学习
      • 大模型概述
        • GPT-3
        • BERT
        • ResNet
        • Transformer
    • 机器学习与大模型的融合应用
      • 自然语言处理
        • 文本生成
        • 文本分类
        • 机器翻译
      • 图像识别
        • 自动驾驶
        • 医学影像分析
      • 语音识别
        • 智能助手
        • 语音转文字
    • 大模型性能优化的新探索
      • 模型压缩
        • 权重剪枝
        • 量化
        • 知识蒸馏
      • 分布式训练
        • 数据并行
        • 模型并行
        • 异步训练
      • 高效推理
        • 模型裁剪
        • 缓存机制
        • 专用硬件
    • 未来展望
      • 跨领域应用
      • 智能化系统
      • 人工智能伦理
      • 技术创新
    • 结论

引言

随着计算能力的不断提升和数据规模的爆炸性增长,机器学习和大模型在人工智能(AI)领域的应用变得越来越广泛和深入。尤其是大规模机器学习模型,如深度神经网络(如GPT-3、BERT等),在自然语言处理、图像识别、语音识别等方面展现了卓越的性能。然而,如何有效地融合机器学习与大模型,提升其应用性能,仍然是当前研究和应用中的重要课题。本文将探讨机器学习与大模型在人工智能领域的融合应用,并重点讨论性能优化的新方法和新探索。
在这里插入图片描述

机器学习与大模型的基本概念

机器学习概述

机器学习是一种通过数据训练模型,并利用模型对新数据进行预测和决策的技术。其基本思想是让计算机通过样本数据学习规律,而不是通过明确的编程指令。根据学习的类型,机器学习可以分为监督学习、无监督学习和强化学习。

监督学习

监督学习是通过带标签的数据集训练模型,使其能够对新数据进行分类或回归预测。常见的算法包括线性回归、逻辑回归、支持向量机、决策树和神经网络等。

无监督学习

无监督学习是在没有标签的数据集上进行训练,主要用于数据聚类和降维。常见的算法包括K-means聚类、层次聚类和主成分分析(PCA)等。

强化学习

强化学习是一种通过与环境交互学习最优行为策略的技术。智能体通过试错法在环境中学习,以最大化累积奖励。常见的算法包括Q-learning、深度Q网络(DQN)和策略梯度方法等。

大模型概述

大模型是指具有大量参数和层数的深度学习模型,通常通过大规模数据集进行训练。大模型在自然语言处理、图像识别和语音识别等任务中表现出色。其代表性模型包括GPT-3、BERT、ResNet和Transformer等。

GPT-3

GPT-3(Generative Pre-trained Transformer 3)是OpenAI开发的一种语言模型,具有1750亿个参数。它通过大量的文本数据进行预训练,能够生成高质量的自然语言文本,广泛应用于文本生成、翻译和对话系统等领域。

BERT

BERT(Bidirectional Encoder Representations from Transformers)是Google开发的一种语言模型,通过双向Transformer架构进行预训练。BERT在各种自然语言理解任务中表现优异,如问答系统和情感分析等。

ResNet

ResNet(Residual Network)是Microsoft提出的一种深度卷积神经网络,通过残差连接解决了深层神经网络训练中的梯度消失问题。ResNet在图像识别任务中取得了显著成果。

Transformer

Transformer是Google提出的一种基于注意力机制的神经网络架构,广泛应用于自然语言处理任务。与传统的卷积神经网络和循环神经网络不同,Transformer能够更高效地处理长距离依赖关系。
在这里插入图片描述

机器学习与大模型的融合应用

自然语言处理

自然语言处理(NLP)是机器学习与大模型应用最广泛的领域之一。大模型在文本生成、文本分类、情感分析、机器翻译等任务中表现出色。

文本生成

GPT-3等大模型在文本生成任务中展现了强大的能力。通过预训练,大模型能够理解上下文,生成连贯且有意义的文本,广泛应用于对话系统、内容创作和自动摘要等场景。

import openaiopenai.api_key = 'YOUR_API_KEY'def generate_text(prompt):response = openai.Completion.create(engine="davinci-codex",prompt=prompt,max_tokens=100)return response.choices[0].text.strip()prompt = "Explain the significance of machine learning in modern technology."
generated_text = generate_text(prompt)
print(generated_text)
文本分类

BERT等大模型通过预训练和微调,在文本分类任务中取得了显著成果。通过对文本进行语义理解,大模型能够准确地对文本进行分类,广泛应用于垃圾邮件检测、情感分析和主题识别等领域。

from transformers import BertTokenizer, BertForSequenceClassification
from transformers import TextClassificationPipelinetokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)
result = pipeline("I love this product, it's amazing!")print(result)
机器翻译

Transformer架构在机器翻译任务中表现出色。通过大规模双语数据集的训练,Transformer能够实现高质量的文本翻译,广泛应用于跨语言信息交流和全球化业务拓展。

from transformers import MarianMTModel, MarianTokenizermodel_name = 'Helsinki-NLP/opus-mt-en-de'
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)def translate(text):inputs = tokenizer(text, return_tensors="pt", padding=True)translated = model.generate(**inputs)translated_text = tokenizer.batch_decode(translated, skip_special_tokens=True)return translated_text[0]text = "Machine learning is transforming the way we approach problems in various fields."
translated_text = translate(text)
print(translated_text)

在这里插入图片描述

图像识别

大模型在图像识别领域同样取得了显著成果。通过深度卷积神经网络(如ResNet),大模型能够准确地识别图像中的物体,广泛应用于自动驾驶、安防监控和医学影像分析等领域。

自动驾驶

在自动驾驶领域,图像识别技术用于检测道路上的行人、车辆和交通标志等。大模型通过大量的图像数据进行训练,能够实现高精度的目标检测和分类,提高自动驾驶系统的安全性和可靠性。

import torch
import torchvision.models as models
import torchvision.transforms as transforms
from PIL import Imagemodel = models.resnet50(pretrained=True)
model.eval()def predict_image(image_path):img = Image.open(image_path)preprocess = transforms.Compose([transforms.Resize(256),transforms.CenterCrop(224),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),])img_tensor = preprocess(img)img_tensor = img_tensor.unsqueeze(0)with torch.no_grad():output = model(img_tensor)_, predicted = torch.max(output, 1)return predicted.item()image_path = 'path/to/your/image.jpg'
predicted_class = predict_image(image_path)
print(predicted_class)
医学影像分析

在医学影像分析领域,图像识别技术用于检测和诊断疾病。大模型通过大量的医学影像数据进行训练,能够准确地识别病变区域,辅助医生进行诊断和治疗,提高医疗服务的质量和效率。

from fastai.vision.all import *def load_learner():learner = load_learner('path/to/your/exported/learner.pkl')return learnerdef predict_image(image_path):learner = load_learner()img = PILImage.create(image_path)pred, pred_idx, probs = learner.predict(img)return pred, probs[pred_idx]image_path = 'path/to/your/image.jpg'
predicted_class, probability = predict_image(image_path)
print(f'Predicted class: {predicted_class}, Probability: {probability}')

语音识别

语音识别是大模型在人工智能领域的重要应用之一。通过深度神经网络和大规模语音数据集的训练,大模型能够实现高精度的语音识别,广泛应用于智能助手、语音控制和语音转文字等场景。
在这里插入图片描述

智能助手

智能助手如Siri、Alexa和Google Assistant等,广泛应用于家庭和办公场景。大模型通过语音识别技术,实现语音指令的理解和响应,提高用户的交互体验和工作效率。

import speech_recognition as srdef recognize_speech():recognizer = sr.Recognizer()with sr.Microphone() as source:print("Say something:")audio = recognizer.listen(source)try:text = recognizer.recognize_google(audio)print("You said: " + text)except sr.UnknownValueError:print("Google Speech Recognition could not understand audio")except sr.RequestError as e:print("Could not request results from Google Speech Recognition service; {0}".format(e))recognize_speech()
语音转文字

语音转文字技术用于将语音信息转换为文本信息,广泛应用于会议记录、客户服务和语音搜索

等场景。大模型通过语音识别技术,实现高精度的语音转文字,提高信息处理的效率和准确性。

from transformers import Wav2Vec2ForCTC, Wav2Vec2Tokenizer
import torch
import librosatokenizer = Wav2Vec2Tokenizer.from_pretrained("facebook/wav2vec2-base-960h")
model = Wav2Vec2ForCTC.from_pretrained("facebook/wav2vec2-base-960h")def speech_to_text(audio_path):speech, _ = librosa.load(audio_path, sr=16000)input_values = tokenizer(speech, return_tensors="pt").input_valueslogits = model(input_values).logitspredicted_ids = torch.argmax(logits, dim=-1)transcription = tokenizer.batch_decode(predicted_ids)[0]return transcriptionaudio_path = 'path/to/your/audio.wav'
transcription = speech_to_text(audio_path)
print(transcription)

在这里插入图片描述

大模型性能优化的新探索

模型压缩

大模型虽然在性能上表现出色,但其巨大的参数量和计算复杂度带来了显著的存储和计算成本。为了在实际应用中更高效地部署大模型,模型压缩技术成为了重要的研究方向。

权重剪枝

权重剪枝是一种通过删除网络中不重要的权重,减少模型参数量和计算量的技术。通过剪枝后的模型在推理阶段能够大幅度提高计算效率,同时保持较高的准确度。

import torch
import torch.nn.utils.prune as prunemodel = models.resnet50(pretrained=True)
parameters_to_prune = [(module, 'weight') for module in model.modules() if isinstance(module, torch.nn.Conv2d)]for module, param in parameters_to_prune:prune.l1_unstructured(module, name=param, amount=0.2)# Remove pruning reparameterization to enable inference
for module, param in parameters_to_prune:prune.remove(module, param)
量化

量化是将模型参数从高精度(如32位浮点数)转换为低精度(如8位整数)的技术。量化后的模型能够大幅度减少存储空间和计算复杂度,同时保持较高的性能。

model = models.resnet50(pretrained=True)
model.eval()quantized_model = torch.quantization.quantize_dynamic(model, {torch.nn.Linear}, dtype=torch.qint8
)# Test the quantized model
input_tensor = torch.randn(1, 3, 224, 224)
output = quantized_model(input_tensor)
print(output)
知识蒸馏

知识蒸馏是一种通过训练一个较小的学生模型来模仿大模型的行为,从而达到模型压缩的技术。学生模型在推理阶段能够更高效地运行,同时保持接近大模型的性能。

import torch.nn.functional as F# Define teacher and student models
teacher_model = models.resnet50(pretrained=True)
student_model = models.resnet18()# Define a knowledge distillation loss function
def distillation_loss(student_outputs, teacher_outputs, labels, alpha=0.5, temperature=2.0):loss_ce = F.cross_entropy(student_outputs, labels)loss_kd = F.kl_div(F.log_softmax(student_outputs / temperature, dim=1),F.softmax(teacher_outputs / temperature, dim=1),reduction='batchmean') * (temperature ** 2)return alpha * loss_ce + (1 - alpha) * loss_kd# Example training loop
optimizer = torch.optim.SGD(student_model.parameters(), lr=0.01, momentum=0.9)for epoch in range(10):for inputs, labels in dataloader:optimizer.zero_grad()student_outputs = student_model(inputs)with torch.no_grad():teacher_outputs = teacher_model(inputs)loss = distillation_loss(student_outputs, teacher_outputs, labels)loss.backward()optimizer.step()

分布式训练

大模型的训练通常需要大量的计算资源和时间。为了加速训练过程,分布式训练技术成为了重要的研究方向。

数据并行

数据并行是一种将大规模数据集分割成多个小批次,并在多个计算节点上并行训练模型的技术。数据并行能够显著加速大模型的训练过程,同时提高计算资源的利用率。

import torch
import torch.distributed as dist
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDPdist.init_process_group(backend='nccl')
model = models.resnet50().cuda()
ddp_model = DDP(model)
optimizer = optim.SGD(ddp_model.parameters(), lr=0.01)for epoch in range(10):for inputs, labels in dataloader:inputs, labels = inputs.cuda(), labels.cuda()optimizer.zero_grad()outputs = ddp_model(inputs)loss = F.cross_entropy(outputs, labels)loss.backward()optimizer.step()
模型并行

模型并行是一种将大模型分割成多个子模型,并在多个计算节点上并行训练的技术。模型并行能够解决单个计算节点内存不足的问题,提高大模型的训练效率。

import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDPclass ModelParallelResNet50(nn.Module):def __init__(self):super(ModelParallelResNet50, self).__init__()self.model = nn.Sequential(models.resnet50().layer1.to('cuda:0'),models.resnet50().layer2.to('cuda:1'),models.resnet50().layer3.to('cuda:2'),models.resnet50().layer4.to('cuda:3'))def forward(self, x):for layer in self.model:x = layer(x)return xmodel = ModelParallelResNet50()
optimizer = optim.SGD(model.parameters(), lr=0.01)for epoch in range(10):for inputs, labels in dataloader:inputs, labels = inputs.to('cuda:0'), labels.to('cuda:3')optimizer.zero_grad()outputs = model(inputs)loss = F.cross_entropy(outputs, labels)loss.backward()optimizer.step()
异步训练

异步训练是一种允许不同计算节点在不同步的情况下进行模型更新的技术。异步训练能够提高计算资源的利用效率,加速大模型的训练过程。

import torch
import torch.distributed as dist
import torch.nn as nn
import torch.optim as optim
from torch.multiprocessing import Processdef train(rank, world_size):dist.init_process_group(backend='gloo', rank=rank, world_size=world_size)model = models.resnet50().to(rank)ddp_model = nn.parallel.DistributedDataParallel(model, device_ids=[rank])optimizer = optim.SGD(ddp_model.parameters(), lr=0.01)for epoch in range(10):for inputs, labels in dataloader:inputs, labels = inputs.to(rank), labels.to(rank)optimizer.zero_grad()outputs = ddp_model(inputs)loss = F.cross_entropy(outputs, labels)loss.backward()optimizer.step()def main():world_size = 4processes = []for rank in range(world_size):p = Process(target=train, args=(rank, world_size))p.start()processes.append(p)for p in processes:p.join()if __name__ == "__main__":main()

在这里插入图片描述

高效推理

大模型在推理阶段同样面临计算复杂度高的问题。为了在实际应用中更高效地进行推理,高效推理技术成为了重要的研究方向。

模型裁剪

模型裁剪是一种在推理阶段,根据输入数据的特性动态裁剪模型结构的技术。模型裁剪能够减少计算量,提高推理速度,同时保持较高的性能。

import torchclass DynamicPruningModel(nn.Module):def __init__(self, model):super(DynamicPruningModel, self).__init__()self.model = modeldef forward(self, x):# Example of dynamic pruning logicif x.size(0) > 1:self.model.layer4[0].conv1 = nn.Identity()return self.model(x)model = models.resnet50(pretrained=True)
pruned_model = DynamicPruningModel(model)input_tensor = torch.randn(1, 3, 224, 224)
output = pruned_model(input_tensor)
print(output)
缓存机制

缓存机制是一种通过缓存推理过程中的中间结果,减少重复计算的技术。缓存机制能够显著提高大模型的推理效率,特别是在实时应用场景中。

import torch
import torch.nn as nnclass CachedModel(nn.Module):def __init__(self, model):super(CachedModel, self).__init__()self.model = modelself.cache = {}def forward(self, x):if x in self.cache:return self.cache[x]output = self.model(x)self.cache[x] = outputreturn outputmodel = models.resnet50(pretrained=True)
cached_model = CachedModel(model)input_tensor = torch.randn(1, 3, 224, 224)
output = cached_model(input_tensor)
print(output)
专用硬件

专用硬件如GPU、TPU和FPGA等,能够为大模型的推理提供高效的计算支持。通过利用专用硬件的并行计算能力,大模型能够在推理阶段显著提高性能。

import torch
import torch.nn as nn# Check if a GPU is available
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = models.resnet50(pretrained=True).to(device)input_tensor = torch.randn(1, 3, 224, 224).to(device)
output = model(input_tensor)
print(output)

在这里插入图片描述

未来展望

跨领域应用

随着大模型的不断发展和优化,机器学习和大模型的融合应用将在更多领域得到拓展。未来,大模型将在医疗、金融、教育、能源等领域发挥更大的作用,为各行各业带来深远的影响和变革。

智能化系统

未来的智能化系统将更加依赖于大模型的支持。通过将大模型应用于智能制造、智能交通和智慧城市等领域,可以实现更加高效、智能和自动化的系统,提高生产效率和生活质量。

人工智能伦理

随着大模型的广泛应用,人工智能伦理问题将变得更加重要。如何确保大模型的公平性、透明性和可解释性,如何保护用户隐私,如何防止大模型被滥用,将是未来需要重点关注的问题。

技术创新

未来,机器学习和大模型领域将继续涌现出新的技术创新。新型神经网络架构、更加高效的训练算法、更智能的优化技术等,将推动大模型的性能进一步提升,开创更多的应用场景和可能性。

结论

机器学习与大模型的融合应用在人工智能领域展现了巨大的潜力和前景。通过对机器学习和大模型的深入理解和研究,结合实际应用中的需求,开发者可以构建出高性能、智能化的系统,实现智能预测和数据分析。在实际应用中,通过模型压缩、分布式训练和高效推理等性能优化技术,可以进一步提升大模型的应用效率和性能。未来,随着技术的不断创新和发展,机器学习与大模型的融合应用将为各行各业带来更多的机遇和挑战。希望本文能够为开发者提供有价值的参考和指导,推动机器学习与大模型在人工智能领域的持续发展和应用。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/21765.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【android 9】【input】【7.发送按键事件1——InputReader线程】

系列文章目录 本人系列文章-CSDN博客 目录 系列文章目录 1.简介 1.1发送流程介绍 1.2 时序图 2.普通按键消息发送部分源码分析 2.1 设备的监听 2.2 inputreader线程阻塞等待事件发生 2.3 按键事件的产生 2.4 EventHub::getEvents 2.5 InputReader::loopOnce 2.6 process…

丢失的数字 ---- 位运算

题目链接 题目: 分析: 解法一: 哈希表解法二: 高斯求和解法三:位运算 异或运算根据运算的性质, 相同的两个a异或 0 以示例一为例: 数组中有0,1,3, 缺失的数字是2, 那么只要我们将数组与0,1,2,3 异或, 就会得到2 代码: class Solution {public int missingNumber(int[] num…

【Redis】 Java操作客户端命令——集合操作与有序集合操作

文章目录 🍃前言🌳集合操作🚩sadd 和 smembers🚩srem 和 sismember🚩scard🚩sinter🚩sunion🚩sdiff 🌲有序集合操作🚩zadd 和 zrange🚩zrem 和 zc…

拖拽tableView

拖拽tableView,随手指移动,插入。demo地址github

JAVAEE之网络初识_协议、TCP/IP网络模型、封装、分用

前言 在这一节我们简单介绍一下网络的发展 一、通信网络基础 网络互连的目的是进行网络通信,也即是网络数据传输,更具体一点,是网络主机中的不同进程间,基于网络传输数据。那么,在组建的网络中,如何判断到…

迪丽热巴与大姐的璀璨友情

迪丽热巴与“大姐”的璀璨友情:星光熠熠,友谊长存在娱乐圈的繁华舞台上,有两位耀眼的女星,她们如同夜空中亮的两颗星,交相辉映,共同谱写着一段段动人的佳话。她们,一个是被亲切称为“迪迪”的迪…

HarmonyOS-9(stage模式)

配置文件 {"module": {"requestPermissions": [ //权限{"name": "ohos.permission.EXECUTE_INSIGHT_INTENT"}],"name": "entry", //模块的名称"type": "entry", //模块类型 :ability类型和…

AWR设置工程仿真频率、原理图仿真频率、默认单位

AWR设置工程仿真频率、原理图仿真频率、默认单位 生活不易,喵喵叹气。马上就要上班了,公司的ADS的版权紧缺,主要用的软件都是NI 的AWR,只能趁着现在没事做先学习一下子了,希望不要裁我。 最近稍微学习了一下AWR这个软…

UMG绝对坐标与局部空间

在 Unreal Engine 的 UMG(Unreal Motion Graphics)中,“绝对坐标”和“局部空间”是两个常见的概念,主要用于描述 UI 元素的位置和大小。 概念与区别 绝对坐标(Absolute Coordinates):这是指相…

list~模拟实现

目录 list的介绍及使用 list的底层结构 节点类的实现 list的实现 构造函数 拷贝构造 方法一:方法二: 析构函数 赋值重载 insert / erase push_/pop_(尾插/尾删/头插/头删) begin和end(在已建立迭代器的基础上) 迭代…

kafka命令--简单粗暴有效

zookeeper bin目录下执行 启动:./zkServer.sh start 停止:./zkServer.sh stop 重启:./zkServer.sh restart 状态:./zkServer.sh status kafka bin目录下执行 启动:./kafka-server-start.sh -daemon …/config/server.…

直播预告|手把手教你玩转 Milvus Lite !

Milvus Lite(https://milvus.io/docs/milvus_lite.md)是一个轻量级向量数据库,支持本地运行,可用于搭建 Python 应用,由 Zilliz 基于全球最受欢迎的开源向量数据库 Milvus(https://milvus.io/intro&#xf…

使用python优雅的将PDF转为Word

使用python优雅的将PDF转为Word 先装这个优雅的库 pip install pdf2docx然后运行下面优雅的代码,将pdf路径和docx路径修改 from pdf2docx import Converter # path pdf_file C:\\Users\\phl\\Desktop\\软件工程期末\\软件工程模拟试题5.pdf docx_file C:\\User…

【iOS】UI学习——导航控制器、分栏控制器

UI学习(三) 导航控制器导航控制器基础导航控制器切换导航栏和工具栏 分栏控制器分栏控制器基础分栏控制器高级 导航控制器 导航控制器负责控制导航栏(navigationBar),导航栏上的按钮叫UINavigationItem(导航…

【STL源码剖析】deque 的使用

别院深深夏席清,石榴开遍透帘明。 树阴满地日当午,梦觉流莺时一声。 目录 deque 的结构 deque 的迭代器剖析 deque 的使用 ​编辑 deque 的初始化 deque 的容量操作 deque 的访问操作 在 pos 位置插入另一个向量的 [forst,last] 间的数据​编…

【人工智能Ⅱ】实验9:强化学习Q-Learning算法

实验9:强化学习Q-Learning算法 一:实验目的 1:了解强化学习的基本概念。 2:学习强化学习经典算法——Q-Learing算法。 3:通过Q-Learing算法解决问题。 二:实验内容 2.1 强化学习 强化学习(…

iOS18新功能大爆料,打破常规,全面升级,这些变化不容错过!

众所周知,苹果 iOS 操作系统近年来都没有发生重大变化,主要是添加小部件、锁屏编辑和手机屏幕编辑等功能,再加上bug偏多,以至于越来越多iPhone用户不愿意再升级系统了。这一点,从 iOS 17 明显降低的安装率中就能看出一…

对人脸图像进行性别和年龄的判断

判断性别和年龄 导入必要的库加载预训练的人脸检测模型加载预训练的性别和年龄识别模型定义性别和年龄的标签列表创建Tkinter窗口:定义选择图片的函数:创建一个按钮,用于打开文件选择对话框定义显示图片的函数创建预测性别和年龄的函数创建预…

Docker大学生看了都会系列(二、Mac通过Homebrew安装Docker)

系列文章目录 第一章 Docker介绍 第二章 Mac通过Homebrew安装Docker 文章目录 前言Mac通过Homebrew安装本机环境系统要求terminal命令安装查看安装信息配置阿里云镜像加速登陆阿里云配置加速地址其他国内加速地址 总结 前言 在上一章了解了Docker容器是什么之后,本…

solidworks二维样条曲线使用实例

单位mm 绘制一个圆 直径为50mm, 基准面 上视基准面,距离50mm, 2个六边形 一个内嵌圆 另一个直径60mm, 将两个六边形改成构造线 选择样条曲线,将六边形的顶点连接在一起 放样曲面 插入–曲面–放样曲面 平面区域…