小白也可以部署私有化大模型知识库_私有化知识库

透过产品了解RAG技术原理,对未来大模型应用开发也将起到事半功倍的效果。

虽然网络上有很多此类技术文章,这里自己也进行一次总结,加深印象的同时给小伙伴做一个参考,多多交流。

准备
  • Linux服务器、windows也可以

  • Docker环境,记得安装docker-compose指令

  • GPT账号(我用的是Azure的账号)one-api也支持多类大模型账号

RAG原理介绍

RAG技术原理图可以看到,通过检索获取相关的知识并将其融入Prompt,让RAG技术是一种检索增强生成的技术,它通过检索获取相关的知识并将其融入Prompt,让大模型能够参考相应的知识从而给出合理回答。因此,可以将RAG的核心理解为“检索+生成”,前者主要是利用向量数据库的高效存储和检索能力,召回目标知识;后者则是利用大模型和Prompt工程,将召回的知识合理利用,生成目标答案。

RAG架构包含数据准备和应用两个阶段:数据准备阶段主要是将私域数据向量化后构建索引并存入数据库的过程;应用阶段则是用户提问——>数据检索(召回)——>注入Prompt——>LLM生成答案。

【一一AGI大模型学习 所有资源获取处一一】

①人工智能/大模型学习路线

②AI产品经理入门指南

③大模型方向必读书籍PDF版

④超详细海量大模型实战项目

⑤LLM大模型系统学习教程

⑥640套-AI大模型报告合集

⑦从0-1入门大模型教程视频

⑧AGI大模型技术公开课名额

FastGPT服务部署

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

FastGPT提供开源版本支持私有化部署,同时也提供在线版本,可自行体验,这里是官网介绍。

FastGPT支持多种本地化部署方式,这里采用Docker-compose的方式部署

  1. 下载配置文件docker-compose.yml、config.json
mkdir fastgpt``cd fastgpt``curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml``curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json

2、启动容器服务

可自行修改yml文件配置,指定暴露的端口

# 在 docker-compose.yml 同级目录下执行``docker-compose pull``docker-compose up -d``version: '3.3'``services:`  `pg:`    `#image: ankane/pgvector:v0.5.0 # git`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云`    `container_name: pg`    `restart: always`    `ports: # 生产环境建议不要暴露`      `- 5432:5432`    `networks:`      `- fastgpt`    `environment:`      `# 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果`      `- POSTGRES_USER=username`      `- POSTGRES_PASSWORD=password`      `- POSTGRES_DB=postgres`    `volumes:`      `- ./pg/data:/var/lib/postgresql/data`  `mongo:`    `#image: mongo:5.0.18`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云`    `container_name: mongo`    `restart: always`    `ports: # 生产环境建议不要暴露`      `- 27017:27017`    `networks:`      `- fastgpt`    `environment:`      `# 这里的配置只有首次运行生效。修改后,重启镜像是不会生效的。需要把持久化数据删除再重启,才有效果`      `- MONGO_INITDB_ROOT_USERNAME=username`      `- MONGO_INITDB_ROOT_PASSWORD=password`    `volumes:`      `- ./mongo/data:/data/db`  `fastgpt:`    `container_name: fastgpt`    `#image: ghcr.io/labring/fastgpt:latest # git`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云`    `ports:`      `- 3000:3000`    `networks:`      `- fastgpt`    `depends_on:`      `- mongo`      `- pg`    `restart: always`    `environment:`      `# root 密码,用户名为: root`       `# root 密码,用户名为: root`      `- DEFAULT_ROOT_PSW=1234`      `# 中转地址,如果是用官方号,不需要管。务必加 /v1`      `- OPENAI_BASE_URL=http://ip:端口/v1`      `- CHAT_API_KEY=sk-xxxx`      `- DB_MAX_LINK=5 # database max link`      `- TOKEN_KEY=any`      `- ROOT_KEY=root_key`      `- FILE_TOKEN_KEY=filetoken`      `# mongo 配置,不需要改. 如果连不上,可能需要去掉 ?authSource=admin`      `- MONGODB_URI=mongodb://username:password@mongo:27017/fastgpt?authSource=admin`      `# pg配置. 不需要改`      `- PG_URL=postgresql://username:password@pg:5432/postgres`    `volumes:`      `- ./config.json:/app/data/config.json

3、访问服务

服务启动后,可通过ip:端口的方式访问。

One-API服务部署

one-api服务作为大模型服务代理,支持国内外主流的大模型服务,对外提供openai规范的api,可采用openai的协议或开源组件进行调用。(目前已支持 Azure、Anthropic Claude、Google PaLM 2 & Gemini、智谱 ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问、360 智脑以及腾讯混元)

这里也使用docker-compose方式部署one-api服务

  • 访问项目地址下载源码,获得docker-compose.yml文件
#注意修改文件中指定端口避免冲突!``#拷贝至指定目录``mkdir /oneapi``cp docker-compose.yml /oneapi``cd /oneapi``#文件同级目录执行命启动容器``docker-compose up -d

  1. 启动完成后通过ip端口访问控制台

  1. 点击渠道,配置我们的GPT账号

3.点击测试验证是否可用

4.点击令牌,添加新的令牌,用于配置到FastGPT

5.点击复制令牌(sk-xxxx),配置到FastGPT安装目录下的docker-compose.yml文件中

修改fastgpt的config.json配置文件,需要与渠道模型名称对应,(如果渠道不支持此模型则请求会失败)

{`  `"SystemParams": {`    `"pluginBaseUrl": "",`    `"vectorMaxProcess": 15,`    `"qaMaxProcess": 15,`    `"pgHNSWEfSearch": 100`  `},`  `"ChatModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35-turbo",`      `"price": 0,`      `"maxContext": 16000,`      `"maxResponse": 4000,`      `"quoteMaxToken": 2000,`      `"maxTemperature": 1.2,`      `"censor": false,`      `"vision": false,`      `"defaultSystemChatPrompt": ""`    `},`    `{`      `"model": "gpt-4-turbo",`      `"name": "gpt-4-turbo",`      `"maxContext": 8000,`      `"maxResponse": 8000,`      `"price": 0,`      `"quoteMaxToken": 4000,`      `"maxTemperature": 1.2,`      `"censor": false,`      `"vision": false,`      `"defaultSystemChatPrompt": ""`    `}`  `],`  `"QAModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35-turbo",`      `"maxContext": 16000,`      `"maxResponse": 16000,`      `"price": 0`    `},`    `{`      `"model": "gpt-4-turbo",`      `"name": "GPT4-turbo",`      `"maxContext": 16000,`      `"maxResponse": 16000,`      `"price": 0`    `}`  `],`  `"CQModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35",`      `"maxContext": 4000,`      `"maxResponse": 4000,`      `"price": 0,`      `"functionCall": true,`      `"functionPrompt": ""`    `},`    `{`      `"model": "gpt-4-turbo",`      `"name": "GPT4-turbo",`      `"maxContext": 8000,`      `"maxResponse": 8000,`      `"price": 0,`      `"functionCall": true,`      `"functionPrompt": ""`    `}`  `],`  `"ExtractModels": [`    `{`      `"model": "gpt-3.5-turbo",`      `"name": "GPT35",`      `"maxContext": 16000,`      `"maxResponse": 4000,`      `"price": 0,`      `"functionCall": true,`      `"functionPrompt": ""`    `}`  `],`  `"QGModels": [`    `{`      `"model": "gpt-4-turbo",`      `"name": "GPT4-turbo",`      `"maxContext": 1600,`      `"maxResponse": 4000,`      `"price": 0`    `}`  `],`  `"VectorModels": [`    `{`      `"model": "text-embedding-ada-002",`      `"name": "Embedding-2",`      `"price": 0.0,`      `"defaultToken": 700,`      `"maxToken": 3000`    `},`     `{`      `"model": "text2vec-large-chinese",`      `"name": "text2vec-large-chinese",`      `"price": 0.0,`      `"defaultToken": 700,`      `"maxToken": 3000`    `},`     `{`      `"model": "m3e",`      `"name": "m3e",`      `"price": 0.0,`      `"defaultToken": 700,`      `"maxToken": 3000`    `}``   `  `],`  `"ReRankModels": [],`  `"AudioSpeechModels": [`    `{`      `"model": "tts-1",`      `"name": "OpenAI TTS1",`      `"price": 0,`      `"voices": [`        `{ "label": "Alloy", "value": "alloy", "bufferId": "openai-Alloy" },`        `{ "label": "Echo", "value": "echo", "bufferId": "openai-Echo" },`        `{ "label": "Fable", "value": "fable", "bufferId": "openai-Fable" },`        `{ "label": "Onyx", "value": "onyx", "bufferId": "openai-Onyx" },`        `{ "label": "Nova", "value": "nova", "bufferId": "openai-Nova" },`        `{ "label": "Shimmer", "value": "shimmer", "bufferId": "openai-Shimmer" }`      `]`    `}`  `],`  `"WhisperModel": {`    `"model": "whisper-1",`    `"name": "Whisper1",`    `"price": 0`  `}``}

重启fastgpt服务生效

#执行命令重启fastgpt服务``cd /fastgpt``docker-compose restart

5.测试FastGPT

登录fastgpt,创建知识库,选择我们添加的模型版本进行预览测试。具体fastgpt使用请参考官网链接

私有化m3e向量模型

通过RAG技术原理图可以了解,向量模型和向量数据库的用途,在对知识或问题进行向量转换时需要使用到向量模型服务,FastGPT默认使用的openai的text-embedding-ada模型,考虑到成本、安全和转换性能问题,可以使用 M3E 向量模型进行私有化部署。向量模型属于小模型,资源使用不高,CPU 也可以运行。

  1. 部署向量模型服务镜像,如下为m3e服务的docker-compose.yml,运行启动即可
version: '1'``services:`  `m3e:`    `image: registry.cn-hangzhou.aliyuncs.com/fastgpt_docker/m3e-large-api:latest`    `restart: no`    `ports:`      `- "6008:6008"
  1. 接入one-api服务

登录one-api控制台,添加m3e渠道

  1. 接入fastgpt

修改fastgpt config.json配置文件,加入m3e模型

"VectorModels": [`    `{`      `"model": "text-embedding-ada-002",`      `"name": "Embedding-2",`      `"price": 0.2,`      `"defaultToken": 500,`      `"maxToken": 3000`    `},`    `{`      `"model": "m3e",`      `"name": "M3E(测试使用)",`      `"price": 0.1,`      `"defaultToken": 500,`      `"maxToken": 1800`    `}``]
  1. 测试效果

使用FastGPT创建知识库,选择m3e模型

导入数据

测试搜索结果

基于FastGPT搭建知识库示例

官方参考文档

写在最后

更多实操内容,期待后续陆续输出,欢迎大家关注交流!!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

-END-


如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景
学习计划:
  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/41225.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Excel多表格合并

我这里一共有25张表格: 所有表的表头和格式都一样,但是内容不一样: 现在我要做的是把所有表格的内容合并到一起,研究了一下发现WPS的这项功能要开会员的,本来想用代码撸出来的,但是后来想想还是找其他办法,后来找到"易用宝"这个插件,这个插件可以从如下地址下载:ht…

C++基础21 二维数组及相关问题详解

这是《C算法宝典》C基础篇的第21节文章啦~ 如果你之前没有太多C基础,请点击👉C基础,如果你C语法基础已经炉火纯青,则可以进阶算法👉专栏:算法知识和数据结构👉专栏:数据结构啦 ​ 目…

谷歌地图Google JS API 实现

demo实现 实现源码&#x1f447; // 谷歌地图Google JS API 实现 <template><div class"myMap"><gmp-map :center"center" zoom"15" map-id"ab6b6643adfa1a70"><gmp-advanced-markerv-for"(res, index) in…

MySQL | JDBC连接数据库详细教程【全程干货】

文章目录 一、什么是JDBC&#xff1f;二、JDBC工作原理三、使用JDBC连接MySQL数据库【✔】1、安装对应数据驱动包2、将jar包导入项目中3、编写代码连接数据库【⭐】1️⃣ 创建数据源2️⃣ 和数据库建立网络连接3️⃣ 构造SQL语句4️⃣ 执行SQL语句5️⃣ 断开连接&#xff0c;释…

nginx安装演示(离线安装,直接安装在Linux中)

文章目录 1、创建文件夹 tool / nginx2、把安装文件放到 /opt/tool/nginx 目录下面3、yum install gcc4、yum install gcc-c5、tar -zxvf pcre-8.37.tar.gz6、./configure7、make8、make install9、tar -zxvf openssl-1.0.1t.tar.gz10、./config11、/config 1、创建文件夹 tool…

人脉社群平台微信小程序系统源码

&#x1f31f;【解锁人脉新纪元&#xff1a;探索人脉社群平台小程序】&#x1f31f; &#x1f680;【开篇&#xff1a;为什么我们需要人脉社群平台小程序&#xff1f;】&#x1f680; 在这个快节奏的时代&#xff0c;人脉不再是简单的名片交换&#xff0c;而是通往成功与机遇…

昇思25天学习打卡营第17天|ChatGLM-6B聊天demo

一、简介&#xff1a; 本次实验&#xff0c;基于MindNLP和ChatGLM6B模型搭建一个小的聊天应用&#xff0c;ChatGLM6B 是基于 GLM-4 模型开发的开源对话机器人&#xff0c;拥有 62 亿个参数&#xff0c;能够进行自然流畅的语言交流。在对话中&#xff0c;ChatGLM6B 可以胜任文案…

我关于Excel使用点滴的笔记

本篇笔记是我关于Excel使用点滴的学习笔记&#xff0c;摘要和地址链接列表。临时暂挂&#xff0c;后面可能在不需要时删除。 (笔记模板由python脚本于2024年06月28日 12:23:32创建&#xff0c;本篇笔记适合初通Python&#xff0c;熟悉六大基本数据(str字符串、int整型、float浮…

(2024)KAN: Kolmogorov–Arnold Networks:评论

KAN: Kolmogorov–Arnold Networks: A review 公和众与号&#xff1a;EDPJ&#xff08;进 Q 交流群&#xff1a;922230617 或加 VX&#xff1a;CV_EDPJ 进 V 交流群&#xff09; 目录 0. 摘要 1. MLP 也有可学习的激活函数 2. 标题的意义 3. KAN 是具有样条基激活函数的 M…

python通过COM Interface控制CANoe

python通过COM Interface控制CANoe 介绍打开示例工程python代码示例介绍 通过python可以控制CANoe的启动和停止等其他操作,在做高阶的自动化项目时可以用到。 打开示例工程 python代码示例 # --------------------------------------------------------------------------…

卫星网络——Walker星座简单介绍

一、星座构型介绍 近年来&#xff0c;随着卫星应用领的不断拓展&#xff0c;许多任务已经无法单纯依靠单颗卫星来完成。与单个卫星相比&#xff0c;卫星星座的覆盖范围显著增加&#xff0c;合理的星座构型可以使其达到全球连续覆盖或全球多重连续覆盖&#xff0c;这样的特性使得…

Redis三种模式——主从复制、哨兵模式、集群

一、Redis模式 Redis有三种模式&#xff1a;分别是主从同步/复制、哨兵模式、Cluster 主从复制&#xff1a;主从复制是高可用Redis的基础&#xff0c;哨兵和群集都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份&#xff0c;以及对于读操作的负载均衡和简…

关于ORACLE单例数据库中的logfile的切换、删除以及添加

一、有关logfile的状态解释 UNUSED&#xff1a; 尚未记录change的空白group&#xff08;一般会出现在loggroup刚刚被添加&#xff0c;或者刚刚使用了reset logs打开数据库&#xff0c;或者使用clear logfile后&#xff09; CURRENT: 当前正在被LGWR使用的gro…

深入理解【 String类】

目录 1、String类的重要性 2、常用方法 2、1 字符串构造 2、2 String对象的比较 2、3 字符串查找 2、4字符转换 数值和字符串转换&#xff1a; 大小写转化&#xff1a; 字符串转数组&#xff1a; 格式转化&#xff1a; 2、5 字符串替换 2、6字符串拆分 2、7 字符串…

Mysql中间件和高可用

文章目录 一、MySQL中间件代理服务器MycatMycat应用场景Mycat部署 实现读写分离 二、MySQL高可用高可用解决方案MHA高可用实现MHA 一、MySQL中间件代理服务器 数据库主要分为两大类&#xff1a;关系型数据库与 NoSQL 数据库&#xff08;非关系型数据库&#xff09;。 数据库主…

ATFX汇市:美国大非农数据来袭,美指与欧元或迎剧烈波动

ATFX汇市&#xff1a;今日20:30&#xff0c;美国劳工部将公布6月非农就业报告&#xff0c;其中新增非农就业人口数据最受关注&#xff0c;前值为27.2万人&#xff0c;预期值19万人&#xff0c;预期降幅高达8.2万人。如果公布值确实如预期一般&#xff0c;美联储降息预期将增强&…

以太网协议介绍——UDP

注&#xff1a;需要先了解一些以太网的背景知识&#xff0c;方便更好理解UDP协议、 以太网基础知识一 以太网基础知识二 UDP协议 UDP即用户数据报协议&#xff0c;是一种面向无连接的传输层协议&#xff0c;属于 TCP/IP 协议簇的一种。UDP具有消耗资源少、通信效率高等优点&a…

跟着峰哥学java 微信小程序 第二天 封装ES7 + 后端工作

1.前端 1.1使用promise封装 使用promise封装以至于在图片路径 统一路径中修改 //封装统一请求域名 const baseUrl "http://localhost:8080"; //封装后需导出 export const getBaseUrl()>{return baseUrl; } 导入外来资源 初始化数据 设置数据 将处理后的数据…

力扣热100 滑动窗口

这里写目录标题 3. 无重复字符的最长子串438. 找到字符串中所有字母异位词 3. 无重复字符的最长子串 左右指针left和right里面的字符串一直是没有重复的 class Solution:def lengthOfLongestSubstring(self, s: str) -> int:# 左右指针leftright0ans0#初始化结果tablecolle…

AIGI赋能未来:人工智能如何重塑电子电路学习体验

文章目录 一、掌握基础知识与技能1. 扎实理论基础2. 熟练使用工具 二、融合AI技术提升学习效率1. 利用AI辅助学习平台2. 应用AI工具进行电路设计与仿真 三、探索创新应用方向1. 关注AI与电子电路的交叉领域2. 参与开源项目和竞赛 四、培养跨学科思维1. 加强数学与计算机科学知识…