2023年是人工智能内容生成(AIGC)技术飞速发展的一年。从年初ChatGPT一炮打响,大家纷纷加入到大模型研究之中。期间Midjourney和Stable Diffusion AI绘画技术持续火热,基于AIGC类的应用也如雨后春笋般遍地开花。万众瞩目的OpenAI GPT4.5则推迟到了今年。
图1 AIGC(来自RdFast AI生成)
人工智能生成内容 (AIGC) 标志着一个变革时代的到来,它利用机器学习以有限的人力输入来创建或更改内容。这一趋势跨越了各种媒体形式——文本、图像、电影和音频等,在媒体制作、分发和接收方面引入了新的创新方式。AIGC 不仅仅局限于内容自动化;它还增强了人类的创造力,提供了一系列内容定制的机会。
本文将从以下六个部分简要回顾20203年AIGC人工智能技术发展情况,并且很多最新的人工智能技术都可以在乐乐感知学堂公众号和RdFast智能创作机器人小程序中免费无限使用,这样大家可以大致对各种技术有一个比较直观的认识。根据自己的理解,用户可以确定新的算法模型研究方向或者应用研究方向,进而在人工智能时代充分发挥自己的想象力和创造力。
(1)AI文本生成
(2)AI绘画生成
(3)AI音频生成
(4)AI视频生成
(5)AI三维生成
(6)展望:AGI
1 AI文本生成
AI文本生成技术是指根据用户需求生成特定任务下的文案,包括营销文案、营销邮件、文章撰写、润色、翻译、校对、总结、编辑、代码生成、角色扮演、工具助手等等,大大提升文案创作或编辑人员的工作效率。相比于普通聊天机器人而言,AI文本生成内容更加专业,很多时候可以代替人工完成一些初步工作。
图2 宣传文案示例效果
AI文本生成技术的典型代表是OpenAI的ChatGPT,其可谓是从年初火到年尾,目前热度仍然不减。其技术和使用效果也在不断进行迭代更新。其技术基础年初时为GPT3,后陆续更新推出GPT3.5、GPT4和GPTs(基于ChatGPT的定制化场景应用),GPT4.5则推迟到了今年。其API上下文的长度也由4K扩展到16K、32K、64K。微软也于2月8日凌晨推出了由OpenAI提供技术支持的新版搜索引擎必应和Edge浏览器,整合了ChatGPT的最新技术(即GPT-4),并且接入到Newbing当中。
图3 ChatGPT
Anthropic公司随后推出Claude,并且一直被称为“ChatGPT唯一的竞争对手”。Anthropic 的创始团队成员,大多为 OpenAI 的早期及核心员工,深度参与过OpenAI的多项课题,比如GPT-3、神经网络里的多模态神经元、引入人类偏好的强化学习等。今年11月22日发布的Claude 2.1支持20万个Token,不仅是Claude 2.0的两倍,也已超越OpenAI GPT-4 Turbo的12.8万个Token,相当于15万个文本或是500页的文件。
图4 Claude
5月11日 Google I/O 开发者大会发布大语言模型 PaLM2(Pathways Language Model 2),称在部分任务上超越 GPT-4。作为人工智能界的带头大哥,Google在该领域的风头今年一直没能超过OpenAI。12月6日,谷歌CEO桑达尔・皮查伊官宣Gemini 1.0版正式上线。据说Gemini有万亿参数,训练动用的算力是GPT-4的五倍。另外,在这年底冲刺阶段,微软于12月13日发布27亿参数的语言模型Phi-2,据称可与规模大25倍的大模型相媲美,该模型目前已加入Azure AI Studio。
图5 Gemini
全球很多其它企业或单位也紧随其后,不断推出自己的文本生成大模型。LLaMA(Large Language Model Meta AI),由 Meta AI 发布的一个开源且高效的大型基础语言模型,共有 7B、13B、33B、65B(650 亿)四种版本。其数据集来源都是公开数据集,无任何定制数据集,保证了其工作与开源兼容和可复现,整个训练数据集在 token 化之后大约包含 1.4T 的 token。LLaMA因为源码泄露引来了大量开发者的关注,早期大模型研发工作有很大一部分都是基于LLaMA进行微调的。例如LLaMA(羊驼)、Vicuna(小羊驼)等。
国内AI文本生成大模型主要有清华智谱AI的ChatGLM、百度的文言一心、科大讯飞的星火认知大模型、百川大模型、阿里的通义千问、零一万物的Yi系列大模型等。据说国内的“百模大战”已升级成“两百模大战”,据不完全统计,今年1-7月国内共发布了64个大模型,截至目前叫得出名字的国产大模型已接近200家。其中,ChatGLM是国内最早开源的模型之一,早在今年3月份就已经发布,从ChatGLM发展到ChatGLM2和ChatGLM3。相关的开源生态也做得非常完善,例如微调、C++加速、模型量化以及移动端部署等等。
图6 部分大模型评测对比
ChatGPT类大模型训练框架主要有DeepSpeed、Colossal-AI等,这些框架均支持分布式和强化学习训练。类似Chat GLM等开源大模型也提供了微调方式。另外,OpenAI也提供了模型微调API接口,目前支持到GPT3.5。模型训练微调和训练的应用之一是能够得到自定义知识库,根据知识库进行问答。目前,根据知识库问答主要包括两种方案。
一种是对知识库进行向量化,根据用户问题去命中知识库,然后将命中的知识库和用户问题合并到prompt提示词中,然后输入到大模型。这种方法比较方便,但是每次输入到模型的上下文内容会很长,而且模型运行或者API调用成本会随着内容增加而增加。该方法虽然省去了模型训练成本,但是调用成本会增加。
另一种方式是根据已有知识库训练或微调大模型,让模型本身掌握当前知识。那么模型使用时只需要输入问题或者任务内容,无需将知识库加入到输入。这种做法会降低调用成本,但需要增加模型训练成本。第二种方法应该更加有效,但是难度会偏大,包括数据制作和模型训练等。
2 AI绘画生成
2022年,Midjourney的一幅AI绘画《太空歌剧院》诞生让AIGC绘画变得流行起来。与此同时,Stability.ai和Jasper.ai(元宇宙和数字媒体工具开发商)在当前市场环境下完成了大规模融资,估值分别为10亿美元和15亿美元。这两件事的叠加起到了催化剂的作用,点燃了市场对AIGC的热情。AI绘画实际上从OpenAI的DALLE 2开始就在AI圈流行起来,但真正流行是从开源版本的出现开始的。
图7 太空歌剧院
最早出现在大众面前的Disco Diffusion(Midjourney的前身)主要被插画师和AI工具爱好者使用。他们的目标是创建一个开源和共创的模型,最终将人工智能生成的图像推向普通人。Stability.ai的模型Stable Diffusion可以理解为DALLE 2的开源版本,用户不仅可以直接使用官网部署的Dream Studio直接生成图片,还可以基于开源模型创建自己的定制模型。
可以说,Stability AI彻底降低了AI生成图像的门槛。稳定扩散各渠道日活跃用户已超过1000万,面向消费者的梦想工作室已获得超过150万用户。Stable Diffusion的开源也极大促进了AI绘画市场发展。
图8 stable diffusion
今年2月份ControlNet正式发布开源版本,它可以与Stable Diffusion结合实现可控的AI绘画设计,从而进一步推动了该方向上的发展。例如,发布之初,我们看到大量的基于ControlNet和Stable Diffusion的AI室内装修设计样例或风格迁移设计样例。
图9 ControlNet室内设计
7月初,Stable Diffusion发布了XL版及两个模型,当时仅有个别图形界面工具支持,如ComfyUI,操作不便,且很多常用插件无法使用。而目前ControlNet也已支持XL版Stable Diffusion。XL版本相比与之前版本,绘画质量和分辨率都有明显提升,相当于由512分辨率提升到1024。
相比与Stable Diffusion,Midjourney和DALL并未开源,需要付费使用。从当前现状来看,Midjourney表现效果最佳。Stable Diffusion灵活可控,开源模型和资料较多。DALL-E2发布较早,绘画效果一般。但今年9月份左右Dall-E3发布,并且集成到了ChatGPT之中,效果比较不错,生成的图片清晰度都有非常大的提升。目前,OpenAI也单独提供了DALL-E3的调用接口。12月13日,谷歌Deepmind推出人工智能图像生成器Imagen 2,号称是DALL-E3的最强竞品。据介绍,Imagen 2可以生成迄今为止所有Google模型中质量最高、最逼真的图像,同时严格遵循用户提示。
图10 Imagen 2(prompt: “The robin flew from his swinging spray of ivy on to the top of the wall and he opened his beak and sang a loud, lovely trill, merely to show off. Nothing in the world is quite as adorably lovely as a robin when he shows off – and they are nearly always doing it”)
除了基于扩散模型之外,基于生成式对抗网络(GAN)的DragGAN在今年五月中旬也引起了广泛关注。它可实现运动监督和精确点跟踪,对像素进行精确控制,从而编辑动物、汽车、人类、风景等多种类别的姿态、形状、表情和布局。
图11 DragGAN
图像生成领域正处于探索大量应用场景的阶段。包括绘画软件集成(PhotoShop等)、办公软件(Office、WPS等)、设计工作室、游戏角色设计、室内设计、建筑设计等。
3 AI音频生成
随着AI文本生成和AI绘画生成在2023年爆火,AI音频生成技术也引起了巨大关注。大家都很期待AI音频生成模型引爆音乐行业。这项技术的出现不仅是为了简化音乐创作流程,更是为了提升音乐创作的深度和广度,为创作者和用户带来更多可能性和选择。然而,目前其热度和成熟度还远没有达到前两者的程度。这里简要介绍目前比较热门的三个模型,我将持续关注该领域的发展,并第一时间发布更新通知。
谷歌在今年1月份首次公开MusicLM技术背后的模型。MusicLM是一种文本为条件的音频生成模型,其主要目标是生成高保真度的音乐。它采用层次化的序列到序列方法,可以生成几分钟长且一致的音乐片段。谷歌实验表明,MusicLM 在音频质量和对文本描述的遵守方面都优于以前的系统。现在,GitHub上已经开源了Pytorch版本的MusicLM,用户可以自行部署和体验。
https://google-research.github.io/seanet/musiclm/examples/audio_samples/rich-descriptions/arcade/audio.wav
图12 MusicLM示例 https://google-research.github.io/seanet/musiclm/examples/
今年8月2日Meta facebookresearch 正式开源一款名为AudioCraft的AI音频和音乐生成工具。该工具声称可以直接从文本描述和参考音乐生成高质量的音频和音乐。AudioCraft包含MusicGen、AudioGen和EnCodec三个模型,分别实现音乐生成、音频生成和自定义音频模型构建。其效果可以直接在Hugging Face网页上体验,或者根据GitHub上的开源程序部署到本地进行体验。
https://dl.fbaipublicfiles.com/audiocraft/webpage/public/assets/audios/musicgen_mono/sample_001.mp3
图13 AudioCraft示例https://audiocraft.metademolab.com/musicgen.html
同样在今年8月份,AudioLDM 2论文和模型程序也开源了。它是一个基于文本生成音频的模型,能够快速生成高质量的音频,包括节奏、音效和基本对话。该模型引入了一种通用的音频表示法称为 "音频语言"(LOA)。在生成过程中,它使用GPT-2模型将任何模态转化为LOA,并使用以LOA为条件的潜在扩散模型进行自监督音频生成学习。论文中实验表明,在文本到音频、文本到音乐和文本到语音等主要基准上,与以前的方法相比,其性能达到了最新水平。
https://audioldm.github.io/audioldm2/demos/ttm_headline_nine_audio/A_catchy_trap_beat_with_EDM_Synthesizers_in_the_mix,_creating_a_unique_electronic_sound_with_ethereal_quality.flac
图14 AudioLDM 2 示例https://audioldm.github.io/audioldm2/
以上三个音频模型效果都可以在线或离线体验,但一般对提示词描述需要非常准确或者比较专业。这一点没有AI文本和AI绘画使用起来方便。另一方面,生成时间也会明显增加,通常需要几分钟之久,而AI文本可以采用流式方式实时输出,AI绘画一般也不到1分钟。其次,生成的内容强项在于乐器或英文相关,生成歌曲类或者中文内容比较困难。这些问题也是目前AI音频生成尚未在互联网上掀起热潮的一部分原因。根据当前AI技术的发展趋势,预计明年AI音频设计会有所突破。
4 AI视频生成
视频时代,视频在流量吸引、内容传播、广告营销等方面展现出了强大的能力。随着底层技术不断拓展能力,AIGC的应用自然也从文本、图像发展到了视频领域。技术门槛和市场空间更高的视频生成成为创业者和投资机构关注的焦点。真正的文本转视频生成最早是谷歌在2022年4月发布的,但当时的画面效果并不是很好,比如视频的清晰度、流畅度都比较低。
AIGC在视频编辑中的应用主要分为两类:
第一类是视频属性的编辑,如视频质量恢复、删除画面中特定主体、自动添加具体内容、自动美化、视频特效等。Runway公司从图片剪辑的角度切入视频剪辑;而Descript公司则从声音剪辑的角度切入视频剪辑。切入点不同,但目的都是为了提高内容创作者的工作效率,让他们更专注于创意的产生。
第二类是视频自动编辑。与上面提到的生成不同,自动编辑的逻辑是寻找并合成符合条件的素材。从某种程度上来说,它是自动生成的一个过渡方案。。目前,很多视频编辑或应用软件(如剪映)等都支持一键成片或根据文字脚本生成视频。更进一步的做法是,用户先根据AI文本或绘画设计出原始视频脚本或图片素材,然后导入视频生成软件完成视频创作。
以视频生成头部公司Runway为例,我们简单感受一下AI视频生成在今年的发展速度。Gen-2是Runway公司最初于2023年3月推出,允许用户输入文本提示生成四秒长视频。8月,该公司添加了一个选项,可以将 Gen-2 中人工智能生成的视频延长至 18 秒。9月,Runway 进一步更新 Gen-2,推出了统称为“导演模式”的新功能,允许用户在 Runway AI 生成的视频中选择“摄像机”运动的方向和强度/速度。11月,Runway 宣布发布 Gen-2 更新,为视频结果的保真度和一致性带来重大改进。Runway在12月12日晚间宣布,他们目前的Gen-2等视频生成系统可以视为早期通用世界模型的一种体现,对于物理和运动有着一定程度的理解,但在处理复杂的摄像机或物体运动等问题上仍存在挑战。为了构建更为通用的世界模型,Runway正在进行多项公开研究,其中包括生成环境地图、在环境中的导航和互动、捕捉世界和居民的动态,以及建立更逼真的人类行为模型等方面的研究。
图15 Runway Gen-2 视频gif
Google一直在探索人工智能(AI)的各种应用,其中之一就是AI视频生成。就在ChatGPT刷屏之际,谷歌AI生成的一段视频突然爆火,一时分走不少讨论度。背后的AI模型名为Phenaki。只需提供一段提示词,这个文本转视频(Text-to-Video)模型就能生成长达两分钟的视频。今年10月份,Github上也开源了Pytorch版本的Phenaki模型。
图16 谷歌Phenaki 视频gif
李飞飞携斯坦福联袂谷歌,12月12日正式推出了用于生成逼真视频的扩散模型W.A.L.T,据说效果媲美Gen-2比肩Pika。团队在已建立的视频(UCF-101 和 Kinetics-600)和图像(ImageNet)生成基准测试上实现了SOTA,而无需使用无分类器指导。而且其团队还训练了三个模型的级联,用于文本到视频的生成任务,包括一个基本的潜在视频扩散模型和两个视频超分辨率扩散模型,以每秒8帧的速度,生成512 x 896分辨率的视频。
图17 W.A.L.T 视频gif
在今年最后十几天里,谷歌于本月20日提出的视频生成大模型上线,再次获得了人们的关注。这款名为VideoPoet的大语言模型,被人们认为是革命性的zero-shot视频生成工具。它不仅能够以文字生成视频、以图像生成视频,还能根据需要进行风格迁移,根据文本指令的提示进行交互式视频编辑,可这能会给视频剪辑工作带来非常大的变革。
图18 VideoPoet 视频gif https://sites.research.google/videopoet/
AI视频生成比文本、绘画和语音更加复杂,所需要的算力也更大。因而,这种领域不太适合个人用户去对模型进行部署或优化。大部分用户主要是使用相关的软件工具和平台。可以看到,AI头部公司很少开源AI视频生成模型。
5 AI三维生成
相比2D内容的制作,3D内容的成本更高,制作周期更长。随着Diffusion模型和NeRF模型的发展,AI在3D内容生成的应用中迎来了快速发展。3D建模是一个近130亿的市场规模,3D场景的生成可以应用于游戏、VRAR和元宇宙。
去年发布的3D生成模型有谷歌、加州大学伯克利分校的DreamFusion、OpenAI的Point-E、苹果的GAUDI和英伟达的GET3D等。GET3D目前已经开源。AI三维模型生成主要包括两种类型。一种是完全基于文本,另一种则是基于文本和输入点云。其中,Point-E支持同时输入文本和点云。
今年3月份英伟达发布了Magic 3D,属于文本到图像扩散模型。 它可以根据文本提示创建高质量的 3D 网格模型。Magic3D 采用两阶段过程:它使用低分辨率扩散创建粗略模型,然后系统使用稀疏 3D 哈希网格结构,并通过高效的可微渲染器进一步优化,以创建最终输出。Magic3D 可以在 40 分钟内创建高质量的 3D 网格模型。
2023 年8月香港中文大学、上海人工智能实验室、浙江大学发布的PointLLM 旨在帮助PaLM和Llama等大型语言模型理解3D数据。人工智能研究人员可以在其数据集中充分利用点云(代表 3D 形状或对象的数据点)。
8月底,字节跳动和加州大学圣地亚哥分校的研究人员开发了一种扩散模型MVDream,可以根据文本输入生成高质量的3D渲染。MVDream可以生成模型的多个视图,这些视图是几何一致的多视图图像。用户可使用 DreamBooth3D 等工具对该模型进行微调,以实现个性化3D生成。
图19 MVDream 3D模型生成
Scenario 是一家创建和设计游戏内 3D 资产的公司。用户可以通过视频拍摄现实生活中的3D物体,然后在游戏中生成相应的模型。场景拥有大量游戏内3D资产数据。在稳定扩散的基础上,Scenario针对游戏开发者和游戏设计者推出了AIGC工具,专注于生成各种游戏资产。
同时,随着NeRF模型的发展,3D建模在室内设计领域的应用迎来了快速发展。只需要几张内饰照片,即可利用NeRF模型快速生成3D内饰造型,并可通过文字指令切换整体风格。随着这项技术的进一步发展,41亿美元的室内设计软件市场或将迎来洗牌。
虽然AI三维生成技术目前已经得到了很大发展,但是应用并不广泛,技术仍然存在局限性。文本和二维图像的结构化数据非常庞大,这也给大模型提供了很好的前提条件。而三维数据目前仍然是比较缺乏的,三维数据采集场景也相当有限。整体来看,三维领域的数据集主要集中在无人驾驶和室内模型上,因而场景是相当局限的。这也导致了很多模型在一些专用数据集和场景下取得不错效果,而扩展性和泛化性则受到了限制。
6 展望:AGI
AIGC 对媒体技术的影响是深远而广泛的。 然而,这个新领域也面临着一系列挑战,特别是在道德、监管和就业领域。平衡AIGC能力的利用与这些问题的管理对于媒体技术的道德进步至关重要。当我们踏上这一新征程时,人类创造力和人工智能之间的伙伴关系将继续重塑我们的故事以及我们分享故事的方式。
知识型、创意型岗位的从业者受AIGC影响最直接,主要包括营销人员、销售人员、作家、图像工作者、视频工作者等。AIGC的生成形式可以包括基于素材的部分生成、基于指令的全自主生成生成和生成优化。在内容上,除了文本、图像、音频、视频等常见的显性内容外,还包括行为逻辑、训练数据、算法策略等非显性内容。理想情况下,几乎所有职业都可以通过人工智能得到改善。
AIGC是人工智能生成内容,这只是人工智能技术快速发展的一个部分。更多模态的融合,更加智能的系统会是未来长期发展的方向。人工通用智能(AGI)代表着人类迈向智能革命的巅峰。随着科技的迅猛发展,我们正站在一种新型智能的边缘,这种智能将重新定义我们与技术互动的方式,并彻底改变我们生活、工作和社会的本质。
AGI指的是能够像人类一样执行各种智力任务的人工智能系统。这种智能系统不仅能够在特定领域内表现出色,还能够适应和学习新的任务和环境,具有类似人类智能的广泛适应性和推理能力。AGI是追求在多个领域都能表现出类似于人类智能的全面智能水平。今年下半年另一个热门AI概念“AI Agent”正是该领域的一个技术体现。另一方面,GPT系列模型也在通往AGI之中,预计明年更有更多高版本的GPT模型发布。
图20 AGI https://atlasiko.com/blog/ai/what-is-artificial-general-intelligence/
AGI代表着智能技术的新纪元。虽然它的出现带来了许多挑战,但也为人类带来了前所未有的机遇。我们需要积极拥抱这一变革,同时确保智能技术的发展是符合道德、可持续和人类利益的。只有这样,我们才能实现一个更加智能、更加包容和繁荣的未来。AGI的到来并不是一个偶然事件,而是人类智慧和技术进步的必然结果。让我们共同迎接这一智能时代的到来,并以智慧和责任引领未来的发展道路。
最后,我们将跟踪最新的人工智能AIGC发展,并且会在乐乐感知学堂公众号和RdFast智能创作机器人小程序中及时提供最新技术体验,欢迎大家关注。文中内容仅供参考,欢迎指正。