智谱AI大模型免费开放:开启AI创作新时代

文章摘要:近日,国内领先的人工智能公司智谱AI宣布旗下多款大模型服务免费开放,这一举措标志着大模型技术正式迈入普惠阶段。本文将详细介绍智谱AI此次开放的GLM-4 等大模型,涵盖其主要功能、技术特点、使用步骤以及应用场景,帮助广大开发者和爱好者快速上手,体验大模型的强大能力,并探讨其对未来AI发展的深远影响。

一、主要内容:

1. 智谱AI与大模型技术

智谱AI作为国内人工智能领域的领军企业,一直致力于认知智能大模型的研发。大模型,即大型语言模型(Large Language Model,LLM),是近年来人工智能领域的重要突破。通过海量数据的训练,大模型能够理解和生成自然语言,具备强大的语言理解和生成能力,在文本创作、信息归纳、问答对话等方面展现出惊人的表现。

2. 此次开放的大模型:GLM-4

此次智谱AI免费开放的大模型中,最引人注目的当属最新的GLM-4。GLM-4 是基于 GLM-3 架构的升级版本,拥有更强大的语言理解和生成能力,在多个领域都取得了显著的进步。

  • 更广泛的知识储备: GLM-4 接收了截至 2023 年底的海量数据训练,拥有更广泛的知识储备,能够就更多话题进行深入交流。

  • 更强的逻辑推理能力: GLM-4 在逻辑推理方面进行了专项优化,能够更好地理解复杂问题,并给出更具逻辑性的回答。

  • 更流畅的自然语言生成: GLM-4 生成的文本更加流畅自然,更符合人类的表达习惯,能够胜任各种文本创作任务。

  • 更精准的代码生成能力: GLM-4 内置了代码生成模块,能够根据自然语言描述生成多种编程语言的代码,为开发者提供强大的辅助。

3. 其他开放的大模型

除了 GLM-4 之外,智谱AI还开放了其他几款大模型,包括:

  • GLM-3 :作为 GLM-4 的前代模型,GLM-3 也在众多领域有着广泛的应用。它具备较强的语言理解与生成能力,经过海量数据训练,在文本创作、问答对话等场景中能够生成逻辑连贯、内容丰富的文本,为众多开发者和企业提供了基础的语言模型支持,助力各种语言相关的应用开发。

  • ChatGLM :专注于对话场景的模型,在对话理解与生成方面表现出色,能够实现自然流畅的人机对话交互。无论是日常闲聊还是特定领域的问答咨询,ChatGLM 都能给予恰到好处的回应,为打造智能客服、聊天机器人等应用提供了强大的核心引擎,有效提升对话系统的智能性和用户体验。

  • CodeGeeX: 专注于代码生成的大模型,能够根据自然语言描述生成多种编程语言的代码,并支持代码补全、代码翻译等功能。

  • GLM-4-Flash-250414语言模型是 智谱AI 首个免费的大模型 API,它在实时网页检索、长上下文处理、多语言支持等方面表现出色,适用于智能问答、摘要生成和文本数据处理等多种应用场景。这是基于 GLM-4 进行了特定优化的版本,可能在某些特定功能或性能方面有所增强或调整,以更好地满足特定用户群体或业务场景的需求,进一步拓展了 GLM 模型的应用范围和灵活性。

  • GLM-4-Flash-250414功能特色:

  • 超长上下文:模型具备 128K 上下文,单次提示词可以处理的文本长度相当于 300 页书籍。这样的能力使得 GLM-4-Flash -250414 能够更好地理解和处理长文本内容,适用于需要深入分析上下文的场景。

  • 多语言支持:GLM-4-Flash-250414 拥有强大的多语言支持能力,能够支持多达 26 种语言。这为全球用户提供了多语言交互服务,拓宽了模型的应用范围。

  • 网页检索:支持外部工具调用,通过网络搜索获取信息,以增强语言模型输出的质量和时效性。

4.Cogview-3-Flash介绍

4.1 CogView-3-Flash是什么

CogView-3-Flash是智谱AI推出的免费图像生成模型,能够根据用户指令生成符合要求且美学评分更高的图像。CogView-3-Flash主要应用于艺术创作、设计参考、游戏开发、虚拟现实等领域,帮助用户快速实现从文本到图像的转换需求。

4.2 功能特色

  • 多分辨率支持:该模型支持多种分辨率,包括1024x1024、768x1344、864x1152、1344x768、1152x864、1440x720、720x1440等,能够满足专业设计、广告宣传、艺术创作等领域对图像质量的高标准要求。

  • 创意丰富多样:模型能够根据用户输入的文本描述,生成具有丰富创意和想象力的图像,为创意工作者提供了广泛的灵感来源和创作可能性。

  • 推理速度快:该模型具备实时生成图像的能力,响应速度快,能够迅速满足用户对图像生成的需求。

4.3 应用场景

智谱AI大模型的免费开放,将为各行各业带来巨大的应用价值。以下是一些典型的应用场景:

  • 内容创作: 利用大模型进行文章写作、剧本创作、诗歌创作等,可以大大提高创作效率和质量。

  • 智能客服: 将大模型应用于智能客服系统,可以提供更智能、更人性化的服务体验。

  • 教育辅助: 利用大模型开发智能教育工具,可以为学生提供个性化的学习辅导和答疑解惑。

  • 代码开发: 大模型可以帮助开发者快速生成代码,提高开发效率,并减少代码错误。

  • 信息归纳: 大模型可以对海量信息进行自动归纳总结,提炼关键信息,帮助用户快速获取所需知识。

5.CogVideoX-Flash介绍

5.1 CogVideoX-Flash是什么

CogVideoX-Flash是智谱 AI 推出的免费的视频生成模型,继承CogVideoX自研的端到端视频理解模型,具备强大的视频生成能力。CogVideoX-Flash不仅支持文生视频,依据输入的文本描述精准地生成相应的动态视频内容;还支持图生视频,能够对输入的图片进行深度解析,提取图片中的关键信息、元素特征及潜在语义,以此为基础进行创意性的视频延伸与拓展,极大丰富视频创作的素材来源与创意路径,满足用户多样化的视频创作需求。

5.2 新特性

  • 沉浸式AI音效:全新加入的AI音效功能,通过对不同场景元素的精准识别,如动作类型、场景氛围、物体特征等,智能生成适配的音效组合,为观众带来专业级的视听融合体验。

  • 4K高清画质呈现:图生视频功能支持多种分辨率输出,最高可达 3840x2160(4K)超高清标准,同时涵盖 720x480、1024x1024、1280x960、960x1280、1920x1080、1080x1920、2048x1080 等常用分辨率选项,展现细腻画质,提升视觉盛宴。

  • 10 秒视频时长拓展:图生视频最高支持10秒视频长度,满足更多场景需求。

  • 60fps 高帧率输出:图生视频最高支持60fps,流畅度大幅提升,捕捉每一个精彩瞬间。

6.GLM-Z1-Flash介绍

6.1 GLM-Z1-Flash是什么

GLM-Z1-Flash 模型是智谱首个永久免费调用的推理模型,它在数学逻辑推理、长文档处理、代码生成等场景表现十分出色。相较于基座模型,推理模型在回答问题前会像人类一样进行更长时间的“思考”,不断验证和纠错,更适用于编程、数学、科学等任务。

6.2 功能特色

  • 复杂任务推理:GLM-Z1-Flash 引入了更多推理类数据,并在对齐阶段深度优化了通用能力。无论是数学证明中的逐步推导、长文档中的因果分析,还是代码生成时的边界条件检查,模型均能拆分任务层级,确保最终输出的严谨性,为更多复杂任务的解决提供了支持。

  • 轻量级应用:GLM-Z1-Flash 解放了开发者在推理模型部署硬件方面的限制,更轻量级、更高速,完全免费调用,同时支持高并发场景下的稳定服务,实现高性能和高性价比的双重突破。

    Description

二、使用步骤:

想要体验智谱AI大模型的强大能力,只需按照以下步骤操作:

1. 注册账号:

访问智谱AI官网(https://open.bigmodel.cn/),注册并登录智谱AI开发者平台。

2. 获取API密钥:

登录开发者平台后,在“个人中心”页面获取API密钥(API Key)和API秘钥(Secret Key)。请妥善保管密钥信息,避免泄露。

3. 选择模型:

在开发者平台中选择需要使用的大模型,例如 GLM-4、ChatGLM、GLM-4-Flash-250414、CogView-3-Flash、 CogVideoX-Flash、GLM-Z1-Flash等。

4. 调用API:

根据所选模型的API文档,使用Python、Java等编程语言调用API,将输入数据发送到智谱AI的服务器,并接收返回的结果。

以Python调用GLM-4 API为例:

python

import requestsimport jsonurl = "https://open.bigmodel.cn/api/v1/models/glm-4/invoke"payload = json.dumps({  "prompt": "请写一篇关于人工智能的议论文",  "max_tokens": 500,  "temperature": 0.7,  "top_p": 0.9})headers = {  'Content-Type': 'application/json',  'Authorization': 'Bearer YOUR_API_KEY'}response = requests.request("POST", url, headers=headers, data=payload)print(response.text)

5. 处理结果:

将返回的结果进行解析和处理,例如将生成的文本显示在界面上,或者将结果用于后续的业务逻辑。

需要注意的是,在调用 API 过程中,可能会遇到一些问题,如网络连接错误、请求超时、返回结果不符合预期等。以下是一些常见的解决方法:

  • 网络连接问题 :检查本地网络连接是否正常,确保能够稳定地访问互联网。如果是网络不稳定导致的问题,可以尝试切换网络环境或者使用代理服务器来改善网络连接情况。

  • 请求超时 :可能是由于服务器繁忙或者请求参数设置不合理导致的。可以尝试增加请求的超时时间设置,或者优化请求参数,减少不必要的数据传输,提高请求的效率和响应速度。

  • 返回结果问题 :如果返回的结果不符合预期,首先要检查请求参数是否正确设置,是否符合模型的要求和规范。其次,可以参考智谱 AI 提供的 API 文档中的示例和说明,对返回结果进行详细的解析和分析,找出问题所在并进行相应的调整和优化。

三、相关案例分享

以下是三个代码案例及解释:

案例一:调用GLM-4模型生成文本

Python

import requests
import jsonurl = "https://open.bigmodel.cn/api/v1/models/glm-4/invoke"payload = json.dumps({"prompt": "请写一篇关于人工智能的议论文","max_tokens": 500,"temperature": 0.7,"top_p": 0.9
})
headers = {'Content-Type': 'application/json','Authorization': 'Bearer YOUR_API_KEY'
}response = requests.request("POST", url, headers=headers, data=payload)print(response.text)
代码解释
  • 第1-4行:导入所需的 requestsjson 库,并定义要发送请求的API地址(即GLM-4模型的调用接口)。

  • 第6-11行:构造请求的负载(payload),即向GLM-4模型传递的参数。prompt参数用于指定要生成文本的提示,比如这里要求模型写一篇关于人工智能的议论文;max_tokens参数用于设置生成文本的最大长度,这里设为500;temperature参数用于控制生成文本的随机性程度,0.7是一个比较合理的值;top_p参数用于进一步控制文本生成的多样性。

  • 第12-15行:设置请求头(headers),指定内容类型为JSON格式,并携带认证信息(API密钥)。

  • 第17行:使用 requests.request 方法向智谱AI的服务器发送POST请求,将构造好的payload和headers传递进去。

  • 第19行:打印服务器返回的结果,即GLM-4模型生成的关于人工智能的议论文。

案例二:调用CogView-3-Flash模型生成图像

Python

import requests
import jsonurl = "https://open.bigmodel.cn/api/v1/models/cogview-3-flash/invoke"payload = json.dumps({"prompt": "一只在森林中漫步的可爱小狐狸,阳光透过树叶洒在地上,画面充满童话氛围","max_length": 512,"width": 512,"height": 512
})
headers = {'Content-Type': 'application/json','Authorization': 'Bearer YOUR_API_KEY'
}response = requests.post(url, headers=headers, data=payload)with open("generated_image.png", "wb") as f:f.write(response.content)
代码解释
  • 第1-3行:导入所需的 requestsjson 库,并定义要发送请求的API地址(即CogView-3-Flash模型的调用接口)。

  • 第5-10行:构造请求的负载(payload),即向CogView-3-Flash模型传递的参数。prompt参数用于描述想要生成的图像内容,这里描述的是一幅充满童话氛围的小狐狸在森林中漫步的画面;max_length参数用于设置生成图像的最大长度,这里设为512;widthheight参数分别用于指定生成图像的宽度和高度,这里都设为512。

  • 第11-14行:设置请求头(headers),指定内容类型为JSON格式,并携带认证信息(API密钥)。

  • 第16行:使用 requests.post 方法向智谱AI的服务器发送POST请求,将构造好的payload和headers传递进去。

  • 第18-20行:将服务器返回的二进制图像数据写入本地文件(generated_image.png),保存生成的图像。

案例三:调用CogVideoX-Flash模型生成视频

Python

import requests
import jsonurl = "https://open.bigmodel.cn/api/v1/models/cogvideox-flash/invoke"payload = json.dumps({"prompt": "一个美丽的海滩日落场景,海浪轻轻拍打着沙滩,天空被染成橙红色","max_length": 10,"width": 512,"height": 512,"mode": "text_to_video"
})
headers = {'Content-Type': 'application/json','Authorization': 'Bearer YOUR_API_KEY'
}response = requests.post(url, headers=headers, data=payload)with open("generated_video.mp4", "wb") as f:f.write(response.content)
代码解释
  • 第1-3行:导入所需的 requestsjson 库,并定义要发送请求的API地址(即CogVideoX-Flash模型的调用接口)。

  • 第5-12行:构造请求的负载(payload),即向CogVideoX-Flash模型传递的参数。prompt参数用于描述想要生成的视频内容,这里描述的是一个美丽的海滩日落场景;max_length参数用于设置生成视频的最大长度,这里设为10秒;widthheight参数分别用于指定生成视频的宽度和高度,这里都设为512;mode参数用于指定视频生成模式,这里设为"text_to_video"表示根据文本描述生成视频。

  • 第13-16行:设置请求头(headers),指定内容类型为JSON格式,并携带认证信息(API密钥)。

  • 第18行:使用 requests.post 方法向智谱AI的服务器发送POST请求,将构造好的payload和headers传递进去。

  • 第20-22行:将服务器返回的二进制视频数据写入本地文件(generated_video.mp4),保存生成的视频。

在实际应用中,你需要将代码中的YOUR_API_KEY替换为你实际获取到的API密钥。

四、总结:

1.文章总结

智谱AI大模型的免费开放,是人工智能发展史上的一次重要里程碑。它将大模型技术带入千家万户,让更多的人能够体验到人工智能的强大魅力。GLM-4等大模型的开放,将为各行各业带来巨大的应用价值,推动人工智能技术的普及和发展。

未来,随着大模型技术的不断进步和应用场景的不断拓展,人工智能将更加深入地融入我们的生活,为我们创造更加美好的未来。作为一名专业技术人员,我们应该积极拥抱大模型技术,不断学习和探索,利用大模型的力量解决实际问题,为社会进步贡献力量。

2.展望未来

智谱AI大模型的免费开放仅仅是一个开始。未来,智谱AI将继续加大研发投入,不断提升大模型的性能和能力,并探索更多创新的应用场景。同时,智谱AI也将积极推动大模型技术的开源开放,与广大开发者共同构建开放共赢的人工智能生态。

相信在不久的将来,大模型技术将像水电一样成为社会的基础设施,为各行各业赋能,推动人类社会迈向更加智能、更加美好的未来!

3. 相关文章推荐

以下是根据文章内容整理的 10 个关键字解释以及相关文章推荐:

  1. 智谱 AI 智谱 AI 是国内人工智能领域的领军企业,致力于认知智能大模型的研发,推出多款具有国际竞争力的大模型及应用解决方案,推动人工智能技术在各行业的普及与发展。其智谱大模型开放平台 bigmodel.cn 部署了智谱大模型全家桶,包括具备视觉和智能体能力的 GLM-4/4V 等,能为不同用户提供沉浸式体验。智谱AI发布新一代基座大模型GLM-4

  2. 大模型 通过海量数据训练的大型语言模型(LLM),能理解和生成自然语言,在文本创作、信息归纳、问答对话等方面表现出色。智谱 AI 的大模型如 GLM-4 等在多个领域取得显著进步,为各行业带来巨大应用价值。智谱AI携大模型开放平台亮相2024世界人工智能大会

  3. GLM-4 智谱 AI 免费开放的最新大模型,基于 GLM-3 架构升级,拥有更强语言理解和生成能力,性能逼近 GPT-4,支持更长上下文、具备更强多模态能力,推理速度更快,支持更高并发,可大大降低推理成本。智谱AI发布新一代基座大模型GLM-4

  4. GLM-3 GLM-4 的前代模型,在文本创作、问答对话等场景中可生成逻辑连贯、内容丰富的文本,为众多开发者和企业提供基础语言模型支持。智谱 AI 的 GLM-3 等模型构成其大模型家族的重要基础,助力各种语言相关应用开发。智谱AI发布新一代基座大模型GLM-4

  5. ChatGLM 专注于对话场景的模型,在对话理解与生成方面表现出色,可实现自然流畅的人机对话交互,适用于智能客服、聊天机器人等应用。智谱 AI 的 ChatGLM 为打造智能对话系统提供了强大的核心引擎,有效提升对话系统的智能性和用户体验。智谱AI发布新一代基座大模型GLM-4

  6. GLM-4-Flash-250414 基于 GLM-4 优化的版本,在特定功能或性能方面增强,拓展 GLM 模型的应用范围和灵活性。智谱 AI 的 GLM-4-Flash 等模型针对不同应用场景进行了优化,能更好地满足特定用户群体或业务场景的需求。智谱AI发布新一代基座大模型GLM-4

  7. CogView-3-Flash 智谱 AI 推出的首个免费 AI 图像生成模型,能根据文本描述生成高审美分数图像,支持多种分辨率,广泛应用于广告、设计、艺术创作等领域。其具备快速推理能力,可实时生成图像,迅速响应用户需求。https://ai-bot.cn/cogview-3-flash/

  8. CogVideoX-Flash 智谱 AI 推出的免费视频生成模型,支持文生视频和图生视频,满足用户多样化视频创作需求。智谱 AI 的 CogVideoX-Flash 继承自研的端到端视频理解模型,具备强大的视频生成能力,为视频创作带来新的创意和可能性。还能这么玩,国产免费大模型全家桶就是强!完全免费...

  9. GLM-Z1-Flash 智谱首个永久免费调用的推理模型,在数学逻辑推理、长文档处理、代码生成等场景表现出色,更适用于编程、数学、科学等任务。其在推理过程中会像人类一样进行更长时间的 “思考”,不断验证和纠错。智谱AI发布新一代基座大模型GLM-4

  10. API 调用 开发者通过智谱 AI 开放平台获取 API 密钥后,使用编程语言调用 API,将输入数据发送到智谱 AI 服务器并接收结果,从而使用大模型的能力。智谱 AI 提供的 API 文档详细说明了各模型的调用方法和参数设置,方便开发者快速接入和使用大模型。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/79482.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JMeter中设置HTTPS请求

在JMeter中设置HTTPS请求,你可以按照以下步骤进行操作: 步骤一:添加线程组 打开JMeter后,右键点击“测试计划”,选择“添加” -> “线程(用户)” -> “线程组”。线程组用于定义虚拟用户…

线程池七个参数的含义

Java中的线程池里七个参数的以及其各自的含义 面试题:说一下线程池七个参数的含义? 所谓的线程池的 7 大参数是指,在使用 ThreadPoolExecutor 创建线程池时所设置的 7 个参数,如以下源码所示: public ThreadPoolExe…

【最后203篇系列】028 FastAPI的后台任务处理

说明 今天偶然在别的文章里看到这个功能,突然觉得正好。 CeleryWorker已经搭好了,但是我一直想在用户请求时进行额外的处理会比较影响处理时间,用这个正好可以搭配上。 我设想的一个场景: 1 用户发起请求2 接口中进行关键信息…

uboot下读取ubifs分区的方法

在uboot 的defconfig中增加以下内容: CONFIG_MTDIDS_DEFAULT"nand0nand0" CONFIG_MTDPARTS_DEFAULT"mtdpartsnand0:1M(boot1),1M(boot2),1M(hwinfo),6M(kernel1),6M(kernel2),56M(rootfs1),56M(rootfs2),-(ubi2)" CONFIG_CMD_UBIy 其中&#x…

图+文+语音一体化:多模态合成数据集构建的实战与方法论

目录 图文语音一体化:多模态合成数据集构建的实战与方法论 一、多模态合成数据的核心价值 二、系统架构概览 三、核心模块与实现建议 ✅ 1. 文→图:图像合成(Text-to-Image) ✅ 2. 图→文:自动描述(I…

linux驱动之poll

驱动中 poll 实现 在用户空间实现事件操作的一个主要实现是调用 select/poll/epoll 函数。那么在驱动中怎么来实现 poll 的底层呢? 其实在内核的 struct file_operations 结构体中有一个 poll 成员,其就是底层实现的接口函数。 驱动中 poll 函数实现原…

第八篇:系统分析师第三遍——3、4章

目录 一、目标二、计划三、完成情况四、意外之喜(最少2点)1.计划内的明确认知和思想的提升标志2.计划外的具体事情提升内容和标志 五、总结 一、目标 通过参加考试,训练学习能力,而非单纯以拿证为目的。 1.在复习过程中,训练快速阅读能力、掌…

C++17 新特性简解

C17 新特性简解 一、核心语言特性 1. 结构化绑定&#xff08;Structured Bindings&#xff09; 用途&#xff1a;解构复合类型&#xff08;如元组、结构体&#xff09;为独立变量 示例&#xff1a; #include <iostream> #include <tuple>int main() {// 解构 st…

PHP使用pandoc把markdown文件转为word

文章目录 首先安装pandocPHP处理 服务器操作系统是Linux&#xff0c;centos 首先安装pandoc yum install -y pandoc安装完成后输入如下代码&#xff0c;检查安装是否成功 pandoc --versionPHP处理 我把markdown内容存到了数据库里&#xff0c;所以要从数据库读取内容。对内容…

【Python学习笔记】Pandas实现Excel质检记录表初审、复核及质检统计

背景&#xff1a; 我有这样一个需要审核的飞书题目表&#xff0c;按日期分成多个sheet&#xff0c;有初审——复核——质检三个环节&#xff0c;这三个环节是不同的同学在作业&#xff0c;并且领到同一个题目的人选是随机的&#xff0c;也就是说&#xff0c;完成一道题的三个人…

守护进程编程、GDB调试以及外网连接树莓派

目录 一、什么是守护进程以及如何创建守护进程1. 什么是守护进程&#xff1f;2. 如何创建守护进程&#xff1f; 二、什么是GDB调试以及如何用GDB命令调试C程序1. 什么是GDB&#xff1f;2. 如何用GDB命令调试C程序&#xff1f; 三、外网访问树莓派 一、什么是守护进程以及如何创…

Logisim数字逻辑实训——计数器设计与应用

4位递增计数器 六进制计数器 十进制计数器 六十进制计数器 二十四进制计数器 计时器

发现“横”字手写有难度,对比两个“横”字

我发现手写体“横”字“好看”程度&#xff0c;难以比得上印刷体&#xff1a; 两个从方正简体启体来的“横”字&#xff1a; 哪个更好看&#xff1f;我是倾向于左边一点。 <div style"transform: rotate(180deg); display: inline-block;"> 左边是我从方正简…

ubuntu 向右拖动窗口后消失了、找不到了

这是目前单显示器的设置&#xff0c;因为实际只有1个显示器&#xff0c;之前的设置如下图所示&#xff0c;有2个显示器&#xff0c;一个主显示器&#xff0c;一个23寸的显示器 ubuntu 22.04 系统 今天在操作窗口时&#xff0c;向右一滑&#xff0c;发现这个窗口再也不显示了、找…

专精特新政策推动,B端UI设计如何赋能中小企业创新发展?

在当前数字化转型浪潮下&#xff0c;专精特新政策为中小企业提供了强大的支持&#xff0c;助力其在细分领域实现专业化、精细化、特色化和创新化发展。B端UI设计作为提升企业数字化产品用户体验和工作效率的重要手段&#xff0c;能够有效赋能中小企业创新发展。本文将探讨专精特…

梯度下降代码

整体流程 数据预处理:标准化->加一列全为1的偏置项 训练:梯度下降,将数学公式转换成代码 预测 模型代码 import numpy as np# 标准化函数&#xff1a;对特征做均值-方差标准化 # 返回标准化后的特征、新数据的均值和标准差&#xff0c;用于后续预测def standard(feats…

RAG 实战|用 StarRocks + DeepSeek 构建智能问答与企业知识库

文章作者&#xff1a; 石强&#xff0c;镜舟科技解决方案架构师 赵恒&#xff0c;StarRocks TSC Member &#x1f449; 加入 StarRocks x AI 技术讨论社区 https://mp.weixin.qq.com/s/61WKxjHiB-pIwdItbRPnPA RAG 和向量索引简介 RAG&#xff08;Retrieval-Augmented Gen…

从零开始学A2A一:A2A 协议的高级应用与优化

A2A 协议的高级应用与优化 学习目标 掌握 A2A 高级功能 理解多用户支持机制掌握长期任务管理方法学习服务性能优化技巧 理解与 MCP 的差异 分析多智能体场景下的优势掌握不同场景的选择策略 第一部分&#xff1a;多用户支持机制 1. 用户隔离架构 #mermaid-svg-Awx5UVYtqOF…

【C++】入门基础【上】

目录 一、C的发展历史二、C学习书籍推荐三、C的第一个程序1、命名空间namespace2、命名空间的使用3、头文件<iostream>是干什么的&#xff1f; 个人主页<—请点击 C专栏<—请点击 一、C的发展历史 C的起源可以追溯到1979年&#xff0c;当时Bjarne Stroustrup(本…

1panel第三方应用商店(本地商店)配置和使用

文章目录 引言资源网站实战操作说明 引言 1Panel 提供了一个应用提交开发环境&#xff0c;开发者可以通过提交应用的方式将自己的应用推送到 1Panel 的应用商店中&#xff0c;供其他用户使用。由此衍生了一种本地应用商店的概念&#xff0c;用户可以自行编写应用配置并上传到自…