重大更新:GPT-4 API 现全面向公众开放!
在 AIGC(人工智能生成内容)领域内,我们一直致力于跟踪和分析如 OpenAI、百度文心一言等大型语言模型(LLM)的进展及其在实际应用中的落地情况。我们还专注于这些模型的基准测试和市场趋势研究。欢迎大家关注我们,获取更多信息!
2023年7月7日,OpenAI 在其官方网站上宣布,GPT-4 API 现已全面对外开放。所有付费API用户现在都可以直接访问具有8K上下文限制的GPT-4,无需等待。据预计,到7月底,OpenAI 将向更多新开发人员开放 GPT-4 API 的访问权限。更多详细信息,请参阅官方使用说明(OpenAI平台)。
除了 GPT-4,OpenAI 还推出了 GPT-3.5 Turbo、DALL·E 和 Whisper API 等新工具,并宣布将提供 GPT-4 和 GPT-3.5 Turbo 的安全、可靠的微调版本。这些新版本预计将在今年晚些时候推出。
自从今年3月 OpenAI 发布 GPT-4 模型以来,全球已有数百万开发者申请访问 GPT-4 API,利用 GPT-4 推动的创新产品数量每天都在急速增长。为了确保向客户提供安全、稳定的服务,开发者之前只能通过补充申请的方式来使用 GPT-4。现在,随着全面开放,全球开发者可以更自由地利用这一大型语言模型来增强他们的应用程序或开发全新的生成式AI应用。
同时,OpenAI 也宣布了对一些旧模型的弃用以及新版本的更新。例如,多个以前的beta版本模型,如 davinci-instruct-beta、gpt-curie-instruct-beta 等,将由 gpt-3.5-turbo-instruct 替代。
GPT-4 的主要特点介绍:
-
创造力:GPT-4 的创造性能力强于以往任何版本,能够生成、编辑并迭代创意和技术写作任务。例如,它可以帮助创作歌曲、编写剧本或学习并模仿用户的写作风格。
-
视觉输入(暂未开放):GPT-4 计划接受图像作为输入,进行说明、分类和分析。例如,通过上传一张含有鸡蛋和面粉的图片,并询问“我能用这些原料做什么?”GPT-4 能够基于图像内容提供多种烹饪建议。
-
更长的上下文处理能力:GPT-4 能够处理超过25,000个单词的文本,适用于长格式内容的创造、对话扩展及文档搜索和分析等应用场景。
例如,摩根士丹利就利用 GPT-4 管理和搜索其庞大的财富知识库,有效地解决了顾问在寻找特定问题答案时需要浏览大量信息的问题,极大地节省了时间和提高了效率。