AI大模型【基础 01】智能AI开源模型与大模型接口整理(8个开源模型+7个大模型接口)

智能AI开源模型与大模型接口整理

  • 1.说明
    • 1.1 开源模型
    • 1.2 大模型接口
  • 2.开源模型整理
    • 2.1 ChatGLM
    • 2.2 Baichuan
    • 2.3 Qwen
    • 2.4 Yi
    • 2.5 XVERSE
    • 2.6 MOSS
    • 2.7 ChatRWKV
    • 2.8 GPT4All
  • 3.大模型接口整理
    • 3.1 百度千帆大模型
    • 3.2 阿里模型服务灵积
    • 3.3 腾讯混元大模型
    • 3.4 科大讯飞星火大模型
    • 3.5 清华智谱清言
    • 3.6 昆仑万维天工AI
    • 3.7 OpenAIGPT

数据主要来源于 【数据学习】的整理和汇总。

1.说明

1.1 开源模型

  • 免费、本地部署安全性高
  • 部分开源模型版本相对落后、硬件资源需求高、性能一般
  • 技术门槛高、需要进行一定量的开发工作
  • 更新维护成本较高

1.2 大模型接口

  • 付费(按需收费)、非本地部署可能存在数据安全问题
  • 模型较新、无需硬件资源、性能好
  • 开发工作量相对较少
  • 实时更新无需维护

2.开源模型整理

2.1 ChatGLM

  • ChatGLM-6B(发布时间:2023-03-14;模型文件大小:13.5GB)https://github.com/THUDM/ChatGLM-6B

ChatGLM 是由清华大学 KEG 实验室和智谱 AI 基于千亿基座模型 GLM-130B (General Language Model 通用语言模型)开发的对话语言模型。ChatGLM 在 GLM-130B 的基础上持续进行文本和代码预训练并通过有监督微调等技术实现人类意图对齐,具备文案写作、信息抽取、角色扮演、问答、对话等能力。

量化等级最低GPU显存
FP16(无量化)13GB
INT810GB
INT46GB
  • ChatGLM2-6B(发布时间:2023-06-25;模型文件大小:12.5GB)https://github.com/THUDM/ChatGLM2-6B

基座模型使用了GLM模型的混合目标函数,在1.4万亿中英文tokens数据集上训练,并做了模型对齐,第二代在各项任务中的提升幅度如下:

评测任务任务类型ChatGLM-6B得分ChatGLM2-6B得分提升幅度
MMLU英文语言理解40.6347.86↑ 23%
CEval中文大语言模型评估38.951.7↑ 33%
GSM8K数学(英文版)4.8232.37↑ 571%
BBH大语言模型的BIG-Bench Hard任务18.7333.68↑ 60%

更长的上下文:在第一代ChatGLM-6B上,模型的最高上下文长度是2K。而第二代的ChatGLM2-6B的基座模型使用了FlashAttention技术,升级到32K。而据此微调的对话模型ChatGLM2-6B则可以在8K长度上下文条件下自由流畅进行对话。因此,支持更多轮次的对话,并且官方表示将在后续继续优化上下文长度限制。
更高效的推理:ChatGLM2-6B使用了Multi-Query Attention技术,可以在更低地显存资源下以更快的速度进行推理,推理速度相比第一代提升42%!同时,在INT4量化模型中,6G显存的对话长度由1K提升到了8K!

量化等级编码 2048 长度的最小显存生成 8192 长度的最小显存
FP16 / BF1613.1 GB12.8 GB
INT88.2 GB8.1 GB
INT45.5 GB5.1 GB

2.2 Baichuan

Baichuan Intelligent Technology是搜狗创始人王小川创办的一家人工智能企业。

  • Baichuan-7B(发布时间:2023-09-06;模型文件大小:14GB)https://github.com/baichuan-inc/Baichuan-7B

是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。

  • Baichuan-13B-Chat(发布时间:2023-07-08;模型文件大小:26.6GB)https://github.com/baichuan-inc/Baichuan-13B

Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次发布包含有预训练 (Baichuan-13B-Base) 和对齐 (Baichuan-13B-Chat) 两个版本。Baichuan-13B 有如下几个特点:

  1. 更大尺寸、更多数据:Baichuan-13B 在 Baichuan-7B 的基础上进一步扩大参数量到 130 亿,并且在高质量的语料上训练了 1.4 万亿 tokens,超过 LLaMA-13B 40%,是当前开源 13B 尺寸下训练数据量最多的模型。支持中英双语,使用 ALiBi 位置编码,上下文窗口长度为 4096。
  2. 同时开源预训练和对齐模型:预训练模型是适用开发者的『 基座 』,而广大普通用户对有对话功能的对齐模型具有更强的需求。因此本次开源我们同时发布了对齐模型(Baichuan-13B-Chat),具有很强的对话能力,开箱即用,几行代码即可简单的部署。
  3. 更高效的推理:为了支持更广大用户的使用,我们本次同时开源了 int8 和 int4 的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛,可以部署在如 Nvidia 3090 这样的消费级显卡上。
  4. 开源免费可商用:Baichuan-13B 不仅对学术研究完全开放,开发者也仅需邮件申请并获得官方商用许可后,即可以免费商用。
量化等级最低GPU显存
bf16 / fp1626.0GB
int815.8GB
int49.7GB

注意:CPU部署需要60GB内存。

  • Baichuan2(发布时间:2023-12-29;模型文件大小:7B-15GB 13B-27.8GB)https://github.com/baichuan-inc/Baichuan2

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。包含有 7B13BBaseChat 版本,并提供了 Chat 版本的 4bits 量化
量化前后显存占用对比 (GPU Mem in GB)

量化等级Baichuan2-7BBaichuan2-13B
bf16 / fp1615.327.5
8bits8.016.1
4bits5.18.6

2.3 Qwen

https://github.com/QwenLM/Qwen
阿里通义千问发布了的Qwen-7B(发布时间:2023-08-03;模型文件大小:15.4GB)和Qwen-14B(发布时间:2023-09-24;模型文件大小:28.32GB),是互联网厂商中目前最受欢迎的开源大模型,它的优势是在于阿里的强大生态体系以及应用。Qwen系列模型相比同规模模型均实现了效果的显著提升。评测的数据集包括MMLU、C-Eval、 GSM8K、 MATH、HumanEval、MBPP、BBH等数据集,考察的能力包括自然语言理解、知识、数学计算和推理、代码生成、逻辑推理等。Qwen-72B(发布时间:2023-11-30;模型文件大小:140GB)在所有任务上均超越了LLaMA2-70B的性能,同时在10项任务中的7项任务中超越GPT-3.5。

模型开源日期最大上下文长度System Prompt强化预训练token数微调(Q-Lora)最小GPU用量生成2048个token的最小显存占用工具调用
Qwen-1.8B23.11.3032K2.2T5.8GB2.9GB
Qwen-7B23.08.0332K2.4T11.5GB8.2GB
Qwen-14B23.09.258K3.0T18.7GB13.0GB
Qwen-72B23.11.3032K3.0T61.4GB48.9GB

2.4 Yi

https://github.com/01-ai/Yi
零一万物(01.AI)https://www.lingyiwanwu.com 是由李开复在2023年3月份创办的一家大模型创业企业,并在2023年6月份正式开始运营。在2023年11月6日,零一万物开源了4个大语言模型,包括Yi-6B(模型文件大小:12.12GB)、Yi-6B-200K、Yi-34B(模型文件大小:62GB)、Yi-34B-200k。模型在MMLU的评分上登顶,最高支持200K超长上下文输入,获得了社区的广泛关注。

ModelMinimum VRAMRecommended GPU Example
Yi-6B-Chat15 GBRTX 3090 / RTX 4090 / A10 / A30
Yi-6B-Chat-4bits4 GBRTX 3060 / RTX 4060
Yi-6B-Chat-8bits8 GBRTX 3070 / RTX 4060
Yi-34B-Chat72 GB4 x RTX 4090 / A800 (80GB)
Yi-34B-Chat-4bits20 GBRTX 3090 / RTX 4090 / A10 / A30 / A100 (40GB)
Yi-34B-Chat-8bits38 GB2 x RTX 3090 / 2 x RTX 4090 / A800 (40GB)

2.5 XVERSE

元象 XVERSE 于2021年初在深圳成立,是AI驱动的3D内容生产与消费一站式平台,开创了高品质、零门槛、一站式的全新元宇宙体验,助力娱乐、营销、社交、电商等各行业3D化,迈向每个人自由“定义你的世界”愿景。公司创始人姚星是腾讯公司前副总裁、国家科技部新一代人工智能战略咨询委员会成员、腾讯AI Lab和腾讯RoboticsX Lab两大实验室创始人。

  • XVERSE-13B(发布时间:2023-08-06;模型文件大小:27.52GB)https://github.com/xverse-ai/XVERSE-13B

模型结构:XVERSE-13B 使用主流 Decoder-only 的标准 Transformer 网络结构,支持 8K 的上下文长度(Context Length),为同尺寸模型中最长,能满足更长的多轮对话、知识问答与摘要等需求,模型应用场景更广泛。
训练数据:构建了 3.2 万亿 token 的高质量、多样化的数据对模型进行充分训练,包含中、英、俄、西等 40 多种语言,通过精细化设置不同类型数据的采样比例,使得中英两种语言表现优异,也能兼顾其他语言效果。
分词:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 语料训练了一个词表大小为 100,534 的分词器,能够同时支持多语言,而无需额外扩展词表。
训练框架:自主研发多项关键技术,包括高效算子、显存优化、并行调度策略、数据-计算-通信重叠、平台和框架协同等,让训练效率更高,模型稳定性强,在千卡集群上的峰值算力利用率可达到 58.5%,位居业界前列。
下表对比了不同量化等级下模型的显存占用以及 MMLU 准确率:

模型精度显存占用(GB)MMLU 准确率
XVERSE-13B-ChatBF16 / FP1628.260.2
XVERSE-13B-ChatINT816.860.3
XVERSE-13B-ChatINT410.955.0
  • XVERSE-65B(发布时间:2023-11-05;模型文件大小:132.89GB)https://github.com/xverse-ai/XVERSE-65B

模型结构:XVERSE-65B 使用主流 Decoder-only 的标准 Transformer 网络结构,支持 16K 的上下文长度(Context Length),能满足更长的多轮对话、知识问答与摘要等需求,模型应用场景更广泛。
训练数据:构建了 2.6 万亿 token 的高质量、多样化的数据对模型进行充分训练,包含中、英、俄、西等 40 多种语言,通过精细化设置不同类型数据的采样比例,使得中英两种语言表现优异,也能兼顾其他语言效果。
分词:基于 BPE(Byte-Pair Encoding)算法,使用上百 GB 语料训练了一个词表大小为 100,534 的分词器,能够同时支持多语言,而无需额外扩展词表。
训练框架:训练中采用 FlashAttention2 加速计算,3D 并行基础上采用虚拟流水线(virtual pipeline)技术,降低较长流水线和 16k 上下文窗口产生的过高气泡率,在千卡集群的峰值算力利用率达到业界前列。同时通过集群基础设施运营、资源调度、训练框架和调度平台协同等持续优化,打造出高稳定、低中断、强容错的训练系统,将每周有效训练率提升至 98.6%。
下表列出了在 XVERSE-65B 上进行推理和微调所需要的硬件资源:

类型方法内存GPU
XVERSE-65B训练LoRA with ZeRO-31500GB8*A800 80G
XVERSE-65B推理BF16/FP16500GB2*A800 80G

2.6 MOSS

https://github.com/OpenLMLab/MOSS
MOSS是复旦大学邱锡鹏教授开源的一个大语言模型,支持中英双语和多种插件的开源对话,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。
下表提供了一个batch size=1时本地部署MOSS进行推理所需的显存大小。量化模型暂时不支持模型并行。

量化等级加载模型完成一轮对话(估计值)达到最大对话长度2048
FP1631GB42GB81GB
Int816GB24GB46GB
Int47.8GB12GB26GB

2.7 ChatRWKV

  • RWKV-4-Raven(更新日期:2023-08-17;模型文件大小:13.77GB)https://github.com/BlinkDL/RWKV-LM

Receptance Weighted Key Value(RWKV)是pengbo提出的一个新的语言模型架构,它使用了线性的注意力机制,把Transformer的高效并行训练与RNN的高效推理相结合,使得模型在训练期间可以并行,并在推理的时候保持恒定的计算和内存复杂度。RWKV已经训练了多个百亿参数的模型,特别是RWKV World模型支持世界所有语言的生成+对话+任务+代码,功能十分全面。此外还有很多开发者基于RWKV的微调模型。
硬件需求官方未公示。

2.8 GPT4All

https://gpt4all.io/index.html
Nomic AI Team 从 Alpaca 获得灵感,使用 GPT-3.5-Turbo OpenAI API 收集了大约 800,000 个提示-响应对,创建了 430,000 个助手式提示和生成训练对,包括代码、对话和叙述。80 万对大约是羊驼的 16 倍。该模型最好的部分是它可以在 CPU 上运行,不需要 GPU。与 Alpaca 一样,它也是一个开源软件,可以帮助个人进行进一步的研究,而无需花费在商业解决方案上。
模型文件大小:0.04 GB~8.37GB
CPU用量:1GB~16GB

3.大模型接口整理

3.1 百度千帆大模型

https://cloud.baidu.com/doc/WENXINWORKSHOP/s/hlqnms5rn
token计算器 https://console.bce.baidu.com/tools/#/tokenizer
文心一言(ernie-bot)定价, ERNIE-Bot-turbo-0922是0.008元/千tokens, ERNIE-Bot是0.012元/千tokens, ERNIE-Bot 4.0 输入输出都是是0.12元/千tokens。

3.2 阿里模型服务灵积

https://dashscope.aliyun.com/

名称计费单元计费单价免费额度
通义千问千tokensqwen-turbo: 0.008元/千tokens
qwen-plus: 0.02元/千tokens
qwen-max, qwen-max-longcontext: 限时免费开放qwen-turbo: 开通即获赠200万 tokens 限时免费额度
qwen-plus: 开通即获赠100万 tokens 限时免费额度
qwen-max, qwen-max-longcontext: 限时免费开放

3.3 腾讯混元大模型

https://cloud.tencent.com/document/product/1729/97731

  • 免费额度
产品名免费额度
腾讯混元大模型标准版开通腾讯混元大模型服务即获赠累计10万 token 的免费调用额度,有效期12个月;以资源包的形式发放到您的腾讯云账号中,优先扣除。
腾讯混元大模型高级版
腾讯混元-Embedding开通腾讯混元大模型服务即获赠累计100万 token 的免费调用额度,有效期12个月;以资源包的形式发放到您的腾讯云账号中,优先扣除。
  • 产品价格(在免费额度用完后,按如下价格进行计费):
产品名单位刊例价
腾讯混元大模型标准版每 1000 token0.01元
腾讯混元大模型高级版每 1000 token0.10元
腾讯混元-Embedding每 1000 token0.0007元

说明:token 为服务输入+服务输出的总额,1token 约等于1.8个中文汉字或3个英文字母;您可以前往 控制台 使用 token 计算器了解一段文本对应的 token 总数;进行 API 调试,以及使用 API 3.0 Explorer 在线工具都会消耗对应的 token。

3.4 科大讯飞星火大模型

https://xinghuo.xfyun.cn/sparkapi

  • V1.5支持语言理解、知识问答、代码编写、逻辑推理、数学解题等多元能力,服务已内嵌联网搜索功能
  • V3.0能力全面升级,在数学、代码、医疗、教育等场景进行了专项优化,让大模型更懂你所需
    |
个人免费包企业免费包套餐一套餐二套餐三套餐四
服务量200万tokens500万tokens0.5亿tokens1亿tokens10亿tokens
QPS2251020
有效期一年一年一年一年一年
V1.5套餐单价免费免费0.15元/万tokens0.14元/万tokens0.13元/万tokens
V3.0套餐单价免费免费0.3元/万tokens0.28元/万tokens0.26元/万tokens

3.5 清华智谱清言

https://open.bigmodel.cn/pricing
https://open.bigmodel.cn/dev/api#product-billing

模型说明上下文长度单价
GLM-4提供了更强大的问答和文本生成能力。适合于复杂的对话交互和深度内容创作设计的场景。128K0.1元 / 千tokens
GLM-3-Turbo适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。128K0.005元 / 千tokens

3.6 昆仑万维天工AI

https://model-platform.tiangong.cn/pricing

模型/api说明单价
kyChat-MegaVerse适用于对创新能力、学识深度、逻辑能力要求较高的超长文本的场景,包括企业办公辅助、文案生成、写小说、文本补全、代码辅助等。0.010元/千tokens
0.005元/千tokens 新用户充值专享价
AGI Sky-Saas-Search API基于"天工"大语言模型出色的推理能力,"AGI Sky-Saas-Search API"不仅具备一般搜索引擎网页抓取、排序的能力,同时能针对海量的网页信息针对性的提取和生成关键内容,提高用户获取信息的效率,并一定程度上解决了 大语言模型所面临的幻觉问题,根治大语言模型虚假生成、胡言乱语的问题。0.18元/次
AGI Sky-Saas-Writing API"AGI Sky-Saas-Writing API"基于天工大语言模型的文本生成能力,几句对话即可生成所需写作内容。边聊边写,不论是初稿还是修改,都变得快速而自然,体验创意的自由,探索写作的新境界。集 AI 写作、改写、扩写、缩写于一体的 AI 文本编辑器,提高写作效率,增强表达力,打造专业且富有创造力的内容。欢迎咨询

3.7 OpenAIGPT

https://openai.com/pricing
使用OpenAI的API需要梯子。

ModelInputOutput
gpt-4-1106-preview$0.01 / 1K tokens(¥0.07 / 500个汉字)$0.03 / 1K tokens(¥0.21 / 500个汉字)
gpt-4-1106-vision-preview$0.01 / 1K tokens(¥0.07 / 500个汉字)$0.03 / 1K tokens(¥0.21 / 500个汉字)
gpt-4$0.03 / 1K tokens(¥0.21 / 500个汉字)$0.06 / 1K tokens(¥0.42 / 500个汉字)
gpt-4-32k$0.06 / 1K tokens(¥0.42 / 500个汉字)$0.12 / 1K tokens(¥0.84 / 500个汉字)
gpt-3.5-turbo-1106$0.0010 / 1K tokens(¥0.007 / 500个汉字)$0.0020 / 1K tokens(¥0.014 / 500个汉字)
gpt-3.5-turbo-instruct$0.0015 / 1K tokens(¥0.0105 / 500个汉字)$0.0020 / 1K tokens(¥0.014 / 500个汉字)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/639592.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

金三银四-探秘Spring框架:挑战你对Java企业级开发的深度理解-基础篇1

又要快到一年一度的金三银四,开始复习啦~! 每天一点点。。 目录 一、Spring框架中的Bean生命周期是什么? 二、Spring中的依赖注入是如何工作的? 三、Spring框架中AOP的概念 四、Spring框架中的事务管理是如何实现的…

[Mac软件] iShot Pro 2.4.6 for Mac强大的截图标注工具激活版

iShot是Mac上一款免费优秀、功能全面的录屏、区域截图、窗口截图、长截图、延时截图、快速标注、贴图工具。 功能介绍 区域截图、窗口截图、快捷键截图智能识别窗口,自动倒圆角、可自定义快捷键快速截图长截图、滚动截图选择滚动截图区域,然后按“S”快…

Docker安装配置OnlyOffice

OnlyOffice 是一款强大的办公套件,你可以通过 Docker 轻松安装和部署它。本文将指导你完成安装过程。 步骤 1:拉取 OnlyOffice Docker 镜像 首先,使用以下命令从 Docker Hub 拉取 OnlyOffice Document Server 镜像: sudo docke…

计算机毕业设计 基于MVC的自习室管理和预约系统的设计与实现 Java实战项目 附源码+文档+视频讲解

博主介绍:✌从事软件开发10年之余,专注于Java技术领域、Python人工智能及数据挖掘、小程序项目开发和Android项目开发等。CSDN、掘金、华为云、InfoQ、阿里云等平台优质作者✌ 🍅文末获取源码联系🍅 👇🏻 精…

如何用数据赋能社媒营销决策?

在数字化时代,越来越多的商家开始意识到数据分析对于改善经营的重要性。 传统决策更多依赖过往经验、商业直觉、他人的思路模板等方法,或者依靠描述性统计、简单的数据分析。在数字时代,则通过精细化数据分析,做出更明智的营销决策…

LLM包含的知识

基础知识 磨刀不误砍柴工,LLM基础知识还是需要的。会按照历史梳理LM,详解BERT、GPT系列等各种预备核心知识点,并带着进行GPT预训练实战、位置编码(长文本问题)实战等。 数据工程 数据很重要,数据是天花板…

java基础07-final、finally和finalize的区别是什么?

1.final用于声明属性、方法和类,分别表示属性不可改变(常量),方法不可覆盖,类不可继承。 2.finally是异常处理语句结构的一部分,表示总是执行。 3. finalize是java.lang.Object类的一个方法,在垃…

华为网络设备常用命令大全

♥️作者:小刘在C站 ♥️个人主页: 小刘主页 ♥️不能因为人生的道路坎坷,就使自己的身躯变得弯曲;不能因为生活的历程漫长,就使求索的 脚步迟缓。 ♥️学习两年总结出的运维经验,以及思科模拟器全套网络实验教程。专栏:云计算技…

在docker中配置 Linux ls 配色方案 与 shell 提示符

发行版中默认的配置一般非常合理,但是docker中往往忽略了这些简单的配置,备忘一下 1. ls 配色方案 vim ~/.bashrc 在文件最末尾加入如下一行内容: export LS_COLORS"rs0:di01;34:ln01;36:mh00:pi40;33:so01;35:do01;35:bd40…

如何避免 QT 的 View/Model 模式产生消息激活的死循环?

1. 收到 QTableWidget 的 itemChanged 信号,关联的槽函数一般做什么工作? 当收到QTableWidget的itemChanged信号时,关联的槽函数一般用于响应单元格数据的修改。它可以执行以下一些常见的工作: 更新数据:槽函数可以获…

Rsync数据远程同步全备-增量备份

rsync是Linux系统下的数据镜像备份工具 使用快速增量备份工具Remote Sync可以远程同步,支持本地复制,或者与其他SSH、rsync主机同步。 它的特性如下: • 可以镜像保存整个目录树和文件系统。 • 可以很容易做到保持原来文件的权限、时间、软…

基于供水管网建模的漏损控制

1.1供水管网模型的概念和管网建模目的 供水管网系统是比较特殊的城市基础设施,不可见且属于压力管道。随着运行年限的增长,管道的过水能力和水泵的运行工况都发生了变化,管道的改扩建也使管网系统的结构发生了变化,导致系统运行状…

WPF-HelixToolkit包的使用(上)

1、引入HelixToolkit包:新建一个WPF项目,在项目“引用”上右击,选择“管理NutGet程序包”, 2、在左侧“浏览”中输入“helixtoolkit” 3、安装第一个“HelixToolkit”包 4、解决错误:右击属性->应用程序->目标框…

Unity -简单键鼠事件和虚拟轴

简单键鼠事件 — “Test_03” KeyTest 键鼠事件每帧都要监听,要放在Update()中处理 public class KeyTest : MonoBehaviour {// Start is called before the first frame updatevoid Start(){}// Update is called once per framevoid Update(){// 【鼠标点击事件…

银河麒麟桌面桌面操作系统v10保姆级安装

目录 一、下载ISO映像文件 1.产品试用申请 2.试用版下载 二、虚拟机搭建 1.新建虚拟机 2. 选择虚拟机硬件兼容性 3.选择安装客户机操作系统 4.选择客户机操作系统 5.命名虚拟机 6.处理器配置 7.虚拟机内存 8.网络类型 9.硬件 10.指定磁盘容量 三、修改虚拟…

STM32 Hal库FreeRtos查看所有任务的内存栈信息使用情况剩余空间 仅需一个函数搞定 超简单

STM32F103 基于Hal库跑FreeRtos,查看所有任务的栈的信息,包括任务名,任务状态,任务优先级,空闲栈,任务号。 运行结果如下 只需要使用一个函数vTaskList :获得任务的统计信息,形式为…

echart3D地图使用

由于项目需求,需要实现3D全国地图,并且在3D地图上通过3D柱状图显示各个区域的数据,并鼠标悬浮该区域的时候,需要实现该省份区域模块整体向上移动的特效 实现效果大致如下,细节需要各位同学自行调整了 需要安装echart…

03--数据库连接池

1、数据库连接池 1.1 JDBC数据库连接池的必要性 在使用开发基于数据库的web程序时,传统的模式基本是按以下步骤: 在主程序(如servlet、beans)中建立数据库连接进行sql操作断开数据库连接 这种模式开发,存在的问题:…

Flink Kubernetes Operator 介绍

一、简介 Flink Kubernetes Operator是针对在Kubernetes上运行Apache Flink应用程序而设计的工具。它充分利用了Kubernetes的优势,实现了对Flink集群的弹性管理和自动化操作,通过扩展Kubernetes API的方式,提供了管理和操作Flink部署的功能。…

【Qt】—— Qt的基本介绍

目录 (一)什么是Qt (二) Qt的发展史 (三)Qt⽀持的平台 (四) Qt版本 (五)Qt的优点 (六)Qt的应⽤场景 (七&#xff09…