12月7日,以“AI新生态 智启新元年”为主题的首届AI PC产业创新论坛在北京联想集团总部举办。阿里巴巴-通义实验室、通义千问大模型负责人周畅受邀出席分享关于端侧大模型的技术进展,以及终端设备与AI结合的发展前景。
周畅表示,大模型技术的快速迭代已经让其具备理解世界的基本能力,接下则需要想办法让大模型能力在各种环境和场景下被充分使用起来。“让大模型在PC等终端设备上跑起来,正是普惠终端用户的第一步,阿里巴巴-通义实验室将与联想集团携手合作,在AI PC生态领域共同探索端云协同的解决方案,为个人和企业提供更加精准的AI服务。”
(阿里巴巴-通义实验室,通义千问大模型负责人周畅)
“我们看《流浪地球2》《钢铁侠》这类科幻片的时候,可能人人都会幻想自己要有一个人工智能助手。自ChatGPT出现后,特别是今年,AI发展特别快,很多功能都开始从幻想慢慢变成现实。”他说,开发者社区现在也非常关注大模型在端侧的具体表现。
而从端侧落地出发,在周畅看来需要做好两件事。第一,模型水平的提升。端侧通用AI助手需要能够理解用户的语言语义、并具备图像理解能力,同时也要能够使用各种常用软件的API,即可以使用各种各样的工具来帮助用户完成任何事情,这需要不断提升模型的水平。第二,发挥这类助手的能力,既可以通过端云协同结合云侧模型的强大功能,也可以通过在端侧灵活便捷的部署,使得大模型能力在离线的状态下也能使用。
他介绍说,从8月份到10月份,通义千问已陆续开放从18亿到720亿参数的语言模型,并达到千亿参数模型全尺寸、全模态开源。阿里云希望通过开源不同尺寸的模型,助力业界大模型的生态发展,也希望通过全尺寸的开源来助力模型的落地。
经过压缩和微调的AI模型适合在端侧进行部署。“当前,端侧的开发者群体比较关心的是主流7B或14B这类小尺寸模型的表现和云端大模型的差异。”周畅称,端侧助手关心的核心能力是工具使用,而通义千问小尺寸系列的语言模型,在推出时就非常重视这类能力的优化。
其数据显示,18亿参数的通义千问小模型在简单工具的使用上,可以达到大模型85%的水平,70亿和140亿的模型在这方面的表现与720亿大模型可以十分接近。毫无疑问,通义千问模型的实测为AI大模型的端侧应用铺平了道路,将加速AI能力的普及。
针对模型的任务分解和工具调用能力,周畅在论坛上分享了一系列演示案例,来说明通用大模型已经能够胜任在离线的PC等终端上运行,并可对基础数字、图标、公式以及图片等内容进行轻度处理。
识别数字、图表等能力,对于AI PC的发展十分重要,周畅进一步强调。联想前不久率先对外展示的全球首款AI PC及其高水准的能力,进一步印证了在AI普惠的道路上,AI PC将成为首选终端。
值得一提的是,在AI PC产业创新论坛上发布的业内首份《AI PC产业(中国)白皮书》,已经将AI PC产业生态范围参与方扩大到了5个,包括用户、终端厂商、AI技术(模型)厂商、应用厂商和算力(芯片)厂商。其中,AI技术(模型)厂商是新引入者。
面对即将开启的AI PC元年,周畅认为,端云协同发展的解决方案在未来拥有巨大想象空间。人工智能已经在云端跑了许久,而未来应是云端大模型和端侧大模型的双向奔赴,AI PC的时代已经来临。