OpenAI GPT-4o 公告
OpenAI 推出了增强版 GPT-4 模型——OpenAI GPT-4o,用于支持 ChatGPT。首席技术官 Mira Murati 表示,更新后的模型速度更快,并在文本、视觉和音频处理方面有了显著提升。GPT-4o 将免费向所有用户开放,付费用户的使用容量可达免费用户的五倍。
首席执行官 Sam Altman 强调,该模型具备“原生多模态”能力,能够生成内容或理解语音、文本和图像中的指令。开发者将可以访问该 API,费用是 GPT-4 Turbo 的一半,速度则是其两倍。
ChatGPT 的语音模式即将新增功能,使其能够作为实时语音助手并观察周围环境。Altman 回顾了 OpenAI 的发展历程,指出公司现在主要通过付费 API 向开发者提供先进的 AI 模型。
在发布之前,有关 OpenAI 的公告存在不同的猜测,包括 AI 搜索引擎、集成到 GPT-4 中的语音助手或新模型 GPT-5。OpenAI 选择在 Google I/O 之前发布,我们预计 Gemini 团队将在 I/O 上发布各种 AI 产品。
解析名称:GPT-4o
- GPT: GPT 代表生成式预训练 Transformer,一种用于语言处理任务的神经网络架构。OpenAI GPT-4o 建立在其前身 GPT-3 和 GPT-4 的基础上。
- “o” 代表 Omni: 字母“o”表示 GPT-4o 的关键特性——全模式能力。与之前的模型不同,GPT-4o 可以处理并响应各种格式的信息:文本、语音甚至视频。这样可以更全面地理解用户输入,从而提供更相关的响应。
可实时推理音频、视觉和文本的 AI 模型(功能)
无论你如何提出问题和请求,人工智能都能理解。无论是说话、打字还是展示图片,OpenAI 的最新成果 GPT-4o 都会迅速且智能地回应。以下是 GPT-4o 成为人工智能革命性飞跃的原因:
像天才一样思考,像闪电一样行动:
- 更聪明: GPT-4o 在基于文本的任务中拥有与 GPT-4 Turbo 相当的推理和编码能力。此外,它在理解和响应音频、视频以及非英语语言方面表现优异。
- **极快的速度:**瞬间获得答案!GPT-4o 的响应速度是 GPT-4 Turbo 的两倍,适合实时应用。
更实惠,更强大:
- 价格减半,乐趣加倍: OpenAI GPT-4o 比其前身便宜得多,输入和输出令牌的价格都只有一半,使得这项先进技术更易获得。
- 更高效: GPT-4o 的速率限制是其前代的五倍,允许用户更广泛地探索其功能并处理更大的数据集。
清晰的视觉,流利的表达:
- 更清晰的视觉: GPT-4o 改进的视觉处理能力使其能够更准确地解释和响应图像。
- **打破语言障碍:**跨境沟通变得更简单。GPT-4o 能有效处理非英语语言,并通过新的文本分解系统,使沟通更流畅。
始终保持最新:
- 最新知识: GPT-4o 的知识库更新至 2023 年 10 月的信息,确保提供最相关、最准确的答复。
这只是 GPT-4o 功能的一瞥。未来,你可能会看到它:
- 使用另一个 GPT-4o 实时创作音乐!
- 通过逼真的对话练习求职面试。
- 在实时翻译的帮助下学习新语言。
OpenAI 在开发过程中优先考虑安全性,因此你可以放心使用 GPT-4o。
使用新的 ChatGPT 桌面应用程序 (MacOS) 增强工作流程
更快完成任务:
- 使用键盘快捷键(Option + Space)立即询问 ChatGPT 问题,无需切换应用程序!
- 直接在应用程序中讨论屏幕截图,非常适合集思广益或获取反馈。
与 ChatGPT 对话(即将推出):
- 使用 ChatGPT 开始语音对话,非常适合深入讨论。(目前提供基于文本的语音模式)
现可供 Plus 用户 (MacOS) 使用:
- 所有人很快都会获得访问权限!Windows 版本将于今年晚些时候推出。
模态
通过图像看世界(即将提供视频支持):
目前,GPT-4o API 可以通过其视觉功能理解视频内容。视频需要以每秒 2-4 帧的速度分解为静止图像(帧)。可以在整个视频中均匀采样这些帧,或使用特定算法选择关键帧。欲了解更多信息,请参阅“GPT-4o 入门指南”。
聆听您的声音(数量有限):
虽然目前还未广泛普及,但 OpenAI 计划在未来几周内向选定的可信测试人员推出音频支持。GPT-4o 将能够直接理解口语,使交互更加自然。
生成图像:
如果你的目标是创建图像,GPT-4o 尚未实现。OpenAI 的 DALL-E 3 API 仍然是生成创意视觉内容的首选。
探索 GPT-4o 的功能
现在,让我们探索 GPT-4o 的令人兴奋的可能性:
- **和谐二重唱:**想象一下两个 GPT-4o 模型互动甚至一起唱歌!这为探索 AI 驱动的音乐创作的新形式打开了大门。
- **完善面试技巧:**需要在即将到来的面试中脱颖而出吗?使用 GPT-4o 进行练习,模拟真实的面试环境,进行真实的对话。
- **有人玩石头、剪刀、布吗?:**想玩吗?GPT-4o 可以成为你的游戏伙伴,快速玩一轮石头、剪刀、布。
- **攻克数学难题:**被数学题难住了?GPT-4o 可以帮助你理解复杂的概念和解方程。
- **解锁新语言:**学习一门新语言?GPT-4o 可以成为你的私人语言导师,提供实时翻译并协助语言习得。
- **打破语言障碍:**跨语言无缝沟通现已成为现实。GPT-4o 可以实时翻译语言,促进全球协作和理解。
使用 OpenAI GPT-4o 是否安全?
GPT-4o 完全可以安全使用,因为 OpenAI 优先考虑人工智能的安全性和负责任的开发。以下是 GPT-4o 的安全措施:
- 多模态安全设计: GPT-4o 从头开始在其所有功能(文本、图像和未来的音频/视频)中整合了安全措施。过滤训练数据和训练后优化模型行为等技术有助于降低潜在风险。此外,还专门为语音输出创建了新的安全系统。
- 严格的风险评估: OpenAI 根据自己的安全框架对 GPT-4o 进行了细致的评估,重点关注网络安全、生物安全风险 (CBRN)、说服技术和模型自主性等领域。这些评估表明,GPT-4o 在任何类别中的风险不超过“中等”。该评估涉及整个开发过程中的全面自动化和人工评估过程。
- **外部红队测试:**为了识别新模式(音频和视频)带来的潜在风险,GPT-4o 与 70 多位外部专家进行了广泛的测试。这些专家专注于社会心理学、偏见检测和错误信息等领域。从这一过程中获得的经验被用于进一步完善 GPT-4o 的安全措施,确保更安全、更值得信赖的交互体验。
- 持续的安全改进: OpenAI 承认,特别是在音频功能方面,存在新的风险需要考虑。虽然文本和图像功能最初会发布,但音频功能将分阶段推出。最初,音频输出将仅限于一组预定的声音,并受现有安全协议的约束。OpenAI 将在即将发布的系统卡中提供有关所有模式的安全措施的更多详细信息。
OpenAI 在探索 GPT-4o 的全部潜力的同时,致力于持续降低风险。
订阅国外服务,如GPT、Midjourney、OnlyFans等,请使用WildCard
结论:释放 GPT-4o 的力量
OpenAI 的 GPT-4o 现已推出,它已准备好彻底改变您的 AI 交互体验。文本和图像功能将首先推出,无论是在 ChatGPT 的 GPT-4o 免费版还是 GPT Plus 版中。Plus 用户将享受更高的消息限制。准备好通过文本提示和图像输入体验 GPT-4o 的强大功能吧。
想要使用语音与 GPT-4o 互动?ChatGPT Plus 用户即将迎来以 GPT-4o 为特色的语音模式新 alpha 版本。
开发者可以立即加入!通过 OpenAI API 访问 GPT-4o 的文本和视觉功能,与 GPT-4 Turbo 相比,它具有速度快、价格合理和更高的速率限制等优势。虽然音频和视频功能即将推出,但初始访问权限将授予一组选定的合作伙伴。
请继续关注 OpenAI 揭示 GPT-4o 全部潜力的激动人心的更新!