今天分享的是GPT4-Turb系列深度研究报告:《GPT4-Turbo技术原理研发现状及未来应用潜力分析报告》。
(报告出品方:深度行业分析研究)
报告共计:46页
图像理解能力提升:三大视觉学习方法
为打造视觉大模型,建立高效视觉预训练体系以提升图像理解能力至关重要,这影响到从图像整体 (如分类、图文检索、标注)到部分区域(如物体识别、短语定位)及到像素细节(如语义、实例 、全景分割)的各项任务。
通用视觉预训练方法主要可归纳为三大类。
1)标签监督:此方法在每张图片都配有对应标签的数据集上进行训练,如图像分类中,一张狗的照片会对应“狗”的标签,模型的核心任务是准确预测此标签。
2)语言-图像监督:利用完整的文本描述来引导模型学习,使模型能够深入挖掘图像内容与文本语义间的关联。
3)仅图像自监督:利用图像本身固有的结构和信息来学习有意义的表示, 而不依赖于显式的人工注释标签。
图像理解能力提升:标签监督
监督式预训练已成为机器学习和计算机视 觉领域的核心技术。在这种策略中,模型首先在大规模标注数据集上进行预训练, 随后针对特定任务进行精细调整。这种方 法充分利用了如ImageNet这样的大型人工 标注数据集,为模型赋予了高度可迁移的 视觉特征。
其核心原理是将图像与预设的标签相对应 ,这些标签往往代表某一视觉物体。多年 来,这种策略在各类视觉基础架构,如 AlexNet、ResNet以及ViT的发展中都发挥 了不可或缺的作用。监督式预训练为计算 机视觉领域带来了革命性的进步,从基础 的图像分类和物体检测,到更为高级的视 觉问答和图像标注任务。受限于人工标注 的高成本,这些模型所学习到的特征会受 到预训练数据集的规模和多样性的制约。
图像理解能力提升:语言-图像监督预训练—— CLIP
CLIP (对比性语言-图像预训练) 利用图像的“alt-text”(一种为图像提供文字描述的方法,常用于网页以增强无障 碍访问)来进行训练。此阶段的训练涵盖了大量图像与其相关文本描述的匹配对,确保模型精确捕捉到文本与图像间的关联性。如果图片和文字有对应关系,那么在高维特征空间中代表两者的点就会非常接近。经过无数图像-文本配对训练的文本编码器可以接受任何给定的文本标签并产生一个独特的向量表示。当提供一个图像时,其对应的向量表示将与这些文本向量进行比较,以分配最合适的类别。
CLIP在零样任务中展现出卓越的泛化性能和对于领域偏移的高度鲁棒性。CLIP不仅能够应对视觉识别和图像-文本的 联合检索任务,更在接受适当的提示后表现出强大的视觉-语言推断能力。由于CLIP基于简单的跨模态交互,它在推 理效率上超越了基于交叉注意力的视觉-语言模型。
图像理解能力提升:图像自监督预训练 —— 对比/非对比学习
在没有标签的无监督学习场景中,对比学习通过将正例(相似的样本)和负例(不相似的样本)对比,强化模型对 于相似性和差异性的判别能力。通过这种方法,即便在没有明确的类别标签的情况下,模型也能够被训练成可识别 出哪些特征更有可能来自同一分布或类别。对比学习的成功归功于其能够捕捉到数据的内部结构和模式。在图像处 理中,对比学习可以用来学习视觉表征,这些表征能够区分不同的物体和场景。一旦模型学习有区分性的特征,它 将可以被用于多种下游任务,如分类、检索和聚类,并展现出强大的泛化能力。
近年来,非对比学习逐渐崭露头角,不再重视明确的样本对比,而是致力于挖掘数据的内在结构和不变特性。例如基于Siamese架构的模型,可以有效处理多个数据视图,而不必过多地依赖样本之间的对比性质,这为模型训练带 来效率与扩展性的双重优势。
视觉生成:多模态内容理解和生成的闭环
在多模态大型模型的发展过程中,视觉生成技术是整合 视觉内容与文本信息的关键手段。拥有理解和生成视觉 内容的能力使模型能够参与到更深层次和细致的任务中 ,如图像标注、视觉叙事以及复杂的设计任务。由于人 类的理解和沟通本质上是多模态的,通过整合视觉生成 功能,模型能够以更接近人类认知的方式处理和生成信 息。此外,多模态融合也为虚拟现实、增强现实以及交 互式数字平台等领域奠定基础,未来将实现更为自然、 无缝且高效的用户界面。
“人类行为对齐”旨在融合人类的认知过程和AI驱动的 视觉内容生成。传统视觉生成模型仅依赖数据,导致输 出内容往往缺乏人类的逻辑思维和行动模式。例如,在 生成‘繁忙的街道’图像时,传统模型只机械地排列车 辆、行人和商店,无法捕捉人类对‘繁忙’的深刻理解, 例如行人的匆忙步伐、车辆的密集流动和商店的热闹场 景。而通过引入人类行为对齐,模型可确保生成的视觉 内容不仅准确,更与人类的感知和期望相符合,推动模 型向更以用户为中心的方向转变,使系统在‘思考’和 ‘感知’方面更符合人类需求。在遵循人类意图合成所 需视觉内容的图像生成模型方面,主要涉及四个方向:
1)空间可控的T2I生成;
2)基于文本的图像编辑;
3) 更好地遵循文本提示;
4)在T2I生成中实现物体定制化。
视觉生成:文本到图像(T2I)
在人工智能领域,文本到图像(T2I)生成技术的目标是根据输入的文本语义生成视觉质量高的图像。目前主流的图像生成技术包括生成对抗网络(GAN)、变分自编码器(VAE)、离散图像标记预测和扩散模型。
① GAN : 包括生成器和判别器两个关键组件。生成器从随机噪声输入创建合成图像,并根据文本条件调整噪声输入以生成与文本语义相关的图像。判别器的任务是区分合成生成的图像和真实图像。
② VAE : 通过编码器和解码器网络模块来生成图像。编码器优化将图像编码成潜在表示,解码器则将采样的潜在表示转换回新图像。VQ-VAE通过离散的潜在空间和向量量化进一步改进VAE。
③ 离散图像标记预测方法 : 核心是图像标记器和去标记器的配对。VQ-GAN将连续的视觉信号转换成离散标记,进转化为离散标记预测任务。自回归Transformer逐行生成视觉标记,最终通过去标记化得到图像预测结果。
④ 扩散模型:通过随机微分方程将随机噪声变为图像,经过多次迭代的去噪过程,基于输入文本的条件精炼图像。
视觉生成:基于文本的图像编辑
基于文本的图像编辑技术依赖于已有的图片和文本描述来合成新图像。其核心目的是维持图像的主体视觉内容,对 特定区域进行微调,如局部物体的调整或全局的风格改变,以更准确地满足用户的意图。
基于文本的编辑领域有3种主流功能。
1) 针对图像的特定区域进行修改:如物体的增减或属性更改。用户所提供的 区域蒙版与图像生成中的空间潜在变量操作结合。
2) 针对图像的特定区域进行修改2.0:用户简单描述所需区域外 观,即可作为明确的编辑指示,例如指导“将图像中的A物体替换为B物体”。
3) 专业模块融合:相较于单一T2I模 型的编辑扩展,某些编辑系统已开始融合多种专业模块,包括图像分割模型和大型语言处理模型。
GPT-4 Turbo:文本理解能力再次提升,知识储备迅速更新
1)更长的上下文(Context Length):GPT-4-turbo支持的上下文窗口(128k)相较于GPT-4-8k 提升16倍,相较于GPT-4-32k提升4倍,即GPT-4-turbo可在单个prompt中处理超过300页的文本, 且GPT-4-turbo模型在较长的上下文中更加准确。我们认为GPT-4-turbo更长且更准确的上下文处理能 力将支持更长的工作流,在B端有能力承担更多的工作负载,提升用户体验。
2)更丰富的世界知识(Better Knowledge):外部文档和数据库的截止更新日期从21年9月更新至 23年4月,意味着OpenAI的大模型在半年内已学习互联网一年半的知识,学习速度极快。
什么是GPTs:用户定制化ChatGPT,实现私人化和场景化
什么是GPTs:GPTs是指“针对特定目的定制的ChatGPT”,用户可以通过自定义行为创建一个定 制版的ChatGPT,定制版的ChatGPT具备带有任何功能的可能性(在保证隐私和安全的情况下)。 不论是开发者还是不会写代码的普通人,都可以拥有自定义版本的GPT。
更加个性化、私人化、场景化,每个人都可以拥有自己的AI Agent。GPTs通过结合①说明 /Instruction+②扩展的知识/Expand knowledge+③操作/Actions,能够在很多情况下更好地工 作,并且为用户提供更好地控制,用以帮助用户轻松完成各种任务、或者获得更多乐趣。
Assistant API:解决API开发者痛点,拓展OpenAI收入来源
针对开发者在开发API中的痛点,OpenAI推出Assistant API,致力于为开发者赋能。根据此前市 场上推出的各种API,我们可以发现API通过接入各种程序和应用,有助于帮助应用实现特定功能。 例如,Shopify的Sidekick允许用户在平台上进行操作;Discord的Clyde允许discord版主设置自定义人格;Snap my AI作为定制聊天机器人工具,可以添加至群聊中并提出建议。但以上API的构建 可能需要开发者耗费几个月的时间、并由数十名工程师搭建,而目前Assistant API的推出将使其变 得容易实现。
定价:除常规的tokens计费外,部分组件还需收取额外费用。其中,代码解释器/Code interpreter定价为单次0.003美元;检索/Retrieval定价为0.20美元/GB/助理/天。
Assistant API-函数调用
1)函数调用/Function calling:在一次API调用/call中,用户可以描述函数/functions,让模型 输出JSON对象来调用一个或多个函数。GPT-4-turbo经过训练,既可以检测何时应该调用函数 (取决于输入),也可以保证JSON输出不会有延迟。
→减轻开发者调用函数工作,助力AI赋能UI:该集成允许开发者通过自然语言就能与各种应用程序 的组件和功能进行流畅的交互,实现AI与UI的更好融合。与此同时,开发者可以将自身更多的精力放在想法的创新,无需自己分析并调用函数,将脏活累活交给助手。