留给“端侧大模型”的时间不多了

1a1b5639447ae50230e5e094d29fc339.jpeg

端侧大模型(Edge AI models),也就是只在设备本地(如智能手机、IoT设备、嵌入式系统等)运行的大模型,过去一两年来非常流行。

具体表现在,终端设备厂商,如苹果、荣耀、小米、OV等,AI公司如商汤科技,都推出了自研的纯端侧大模型。

端侧大模型存在的意义,就是“以小博大”。

简单来说,和云侧大模型相比,端侧大模型要在本地部署,所以参数规模都不大,不用担心私密数据在推理时被泄露;不需要网络传输,因此响应速度更快;设备原生搭载,不需要租用云资源,用起来更省……

听起来,端侧大模型简直是AI设备不可或缺的标配啊。但实际情况,可能出乎很多人的意料。

21e132427c3384bb6a0c27ba2ddddf29.png

我们在调研和使用多个终端厂商的大模型时发现,端云协同、云端大模型,才是大模型在端侧的主流形式。

比如目前很流行的“手机拍照一键擦除背景人物”,仅靠端侧大模型的计算能力是无法实现的,需要端云协同来完成。

再比如公文写作、长文要点总结、PDF要点摘要等,端侧大模型要么无法完成,比如荣耀、OPPO端侧大模型都不支持PDF文本摘要,小米MiLM的支持度和生成效果也不够好。

最终,用户还是要访问GPT-4、文心一言、智谱清言、讯飞星火、KIMI等云端大模型的网页/APP,来满足一些复杂AIGC任务需求。

不难看到,端侧大模型听起来很美,但真正用起来却有点鸡肋。

而随着云端大模型“变大”(走向统一多模态)又“变小”(压缩技术),留给“端侧大模型”的时间,真的不多了。

a0d1a3cc77858b79772ab5c02be98556.png

端侧大模型不是万能的

但没有云侧大模型是万万不能的

目前来看,“端侧大模型”收益和损失这笔账,根本算不平。

先说收益,云端大模型比端侧大模型对用户的价值更大。

端侧AI首先要保障用户体验,先有价值,再说其他。只能在设备本地运行,意味着“端侧大模型”注定不会太大,必然限制了模型本身的性能表现,无法媲美云端大模型。

所以,用户在使用端侧大模型时,要牺牲一部分体验,那么所获得的收益是否更大呢?并不是。

云端大模型的能力变得越来越强大,与不得不“因小失大”的端侧大模型,拉开了更大的体验差距。比如近期OpenAI和谷歌斗得火热的多模态大模型,GPT-4o和Gemini带来令人惊艳的语音交互、多种模态一次生成等能力,处理图片、视频、音频等数据和复杂逻辑,都要在云端运行。

33ee5e7459c752407298db5545c6a1cf.png

一位国内PC行业的资深从业者曾告诉脑极体,大模型出来之后我们硬件企业就在研究,怎么将大模型跟PC结合,究竟什么是真正的AI PC?结论就是,搭载了GPT-4(代指当下最先进大模型)的硬件,确实可以叫“AI xx”,模型能力才是最核心的。

所以,想做好端侧AI,端侧大模型不是万能的,但没有云侧大模型是万万不能的。

云端大模型不得不用,那端侧大模型也一样非用不可吗?这就要来说说损失了。

不用端侧大模型,并不会给用户带来更大的麻烦。

此前,终端追求搭载“端侧大模型”,主要受限于两点:计算瓶颈、安全顾虑。大模型推理对实时性的要求,云端相比本地的时延更高。此外,手机、PC涉及大量隐私数据,传输到云端进行推理,让很多人有顾虑。上述两点“损失”正在被积极地解决。

比如前不久谷歌I/O大会上,就发布了响应速度快、成本低的轻量化模型Gemini 1.5 Flash。谷歌采用了“蒸馏”方法,将较大Gemini 模型的核心知识和技能迁移到了更小、更高效的模型中,Gemini 1.5 Flash在摘要、聊天应用、图像和视频字幕等多种任务中,有很好的表现,可以在不同平台运行。

此外,本地计算硬件针对AI任务进行优化,也可以提升云端推理服务的流畅度。目前x86、Arm阵营都在积极提升端侧计算单元对AI专项任务的适配度,已经有旗舰和高端手机支持实时运行大规模参数量的大模型。

数据安全层面,终端厂商和大模型企业都推出了相应的隐私安全保护机制,通过“数据可用不可见”、脱敏、联邦学习等多种手段,防范泄露风险。

27a27a51e6f67c0f40a7f872d893c818.png

以一贯注重隐私安全的苹果为例,也自研了端侧模型OpenELM,可在手机和笔记本电脑等设备上运行,但在真正上线AIGC等能力时,据说也将选择与大模型企业合作(国外据传是OpenAI,国内据传是文心一言)。

综上,使用“云端大模型”的收益正显著增大,不用“端侧大模型”的损失却越来越小。这让“以小博大”端侧大模型,显得越来越不划算了。

接下来的故事也不难预测,随着越来越多的终端企业,纷纷把云端大模型塞进设备,纯端侧大模型的存在会越来越尴尬,进入到“不好用-不爱用-更不好用”的循环中。

这端侧大模型

终端厂商是非做不可吗?

15d373b36e0805a6f69e664d45aa2424.png

你可能会问了,既然端侧大模型不如云端大模型好用,为什么终端厂商还都在下大力气做呢?

客观情况是,大模型必须得有,但终端厂商并不适合做云端大模型,所以端侧、端云协同就成了必选项。

一位国内某终端企业的负责人曾直言:即使我的研发费用再翻一倍,也没法做像ChatGPT、Sora这样的通用大模型,还是会选择跟百度、腾讯、阿里巴巴等伙伴合作。

比如荣耀正在引导百模千态,在手机中接入文心一言等通用大模型,以及高德地图、航旅纵横等行业大模型;华为在PC中接入了文心一言、讯飞星火、智谱AI的通用大模型,同时上线了基于自研盘古大模型的AI纪要功能……

从主观角度猜测,终端厂商做端侧大模型,既有品牌方面的考量,彰显大模型技术的自研能力,也有“将灵魂握在自己手里”的考虑,类似于银行、金融机构、车企希望将数据这一核心优势,掌握在自己手里,打造行业大模型,而非交给大模型厂商。

b1b368286e6ea33adc35cfa03318c7c9.png

终端厂商,既希望通过合作云端大模型,拔高AI设备的体验优势,增强产品对消费者的吸引力,又希望通过自研抓住端侧大模型,守住数据护城河,是进可攻、退可守的大模型策略。

我们预计,随着云端大模型的性能、能力在非线性增长,终端厂商的纯端侧大模型,会被拉开越来越大的差距,无法成为消费者的购买决策依据。

不远的将来,能否在设备侧整合优质云端大模型生态,会成为AI终端设备的赛点。

总结一下就是,端侧大模型,终端厂商可以做,但没必要。云侧大模型,终端厂商必须有,且得比人强。

34ee04106ced46ae417801ca8243d270.png

深度协作的不只大模型

还有两类厂商

在一次与华为终端的交流中,对方提到:华为是唯一一个云侧通用大模型、端侧大模型全自研的终端厂商(指盘古大模型),这给AI硬件奠定了很好的基础。比如要完成一个复杂的AIGC任务,可以拆分为云、端、边缘等并行训练,兼顾推理效果、运行速度、数据安全等。

需要说明的是,上述思路仍处于概念验证阶段,目前我们还未能在华为终端设备上体验到盘古大模型从云到端的深度整合。但这一理念,在逻辑上确实是说得通的——通过端云高效协同,可以建立起无短板的大模型产品力,打动AI硬件的潜在消费者,而这离不开终端厂商和通用大模型厂商的深度合作。

端侧大模型和云侧通用大模型全自有的终端企业,确实具备紧密融合的先天优势,不过,其他厂商也可以通过开放生态补足,形成一个更全面的模型生态。

这对双方来说,是一件互利共赢的事情:

b77fd5a99222873535f7f760aa7620c5.png

通用大模型厂商,需要借助终端厂商的庞大设备生态,作为大模型落地的土壤,回收基座模型的庞大投入。借助端侧的设备数据,更好地解决大模型的幻觉问题,推动模型进化。

而终端厂商,需要通用大模型(尤其是尖端版本的云端大模型)作为体验支撑,为用户提供最先进的AIGC应用和体验,避免在基座模型上投入太高的研发成本,也避免在AI体验上被其他终端厂商拉大。

在此基础上,终端厂商和云端通用大模型厂商还要抓紧解决的重点问题:

安全问题。如何在保证隐私数据的基础上,学习设备数据,明确数据权益与责任归属,对数据产生的商业收益建立合理的分配机制。

开发者分利政策。无论是手机的AI应用,还是云端大模型的AI应用,都需要开发者来完成。终端开发者生态和大模型开发者生态的进一步打通,也会增加对开发者的吸引力,加速AI应用的孵化。那么,如何共同赋能并分利给开发者,将成为两类厂商合作与博弈的关键。

今年上半年,我们见证了通用大模型的诸多突破,留给端侧大模型的时间已经不多了,留给终端厂商构建大模型共同体生态的机会窗口期,也并不会太久。

下半年,我们或将见证一场“终端厂商+大模型厂商”携手的“阵营战”。

b11fc58f7ae8838647158d9e727ba30f.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/20020.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

android手机安装tfcenter软件(使用termux非root模式)

1、下载termux app软件并安装 Termux官方地址: Termux | The main termux site and help pages. 2、打开Termux并下载tfcenter install.sh脚本 执行curl命令: curl -sS http://47.122.18.150:10000/install.sh -o install.sh 3、通过install.sh 输入…

springboot基本使用十二(PageHelper分页查询)

引入依赖&#xff1a; <dependency><groupId>com.github.pagehelper</groupId><artifactId>pagehelper-spring-boot-starter</artifactId><version>1.3.0</version> </dependency> 通个PageHelper.startPage(page,pageSize)方…

“仿RabbitMQ实现消息队列”---整体架构与模块说明

顾得泉&#xff1a;个人主页 个人专栏&#xff1a;《Linux操作系统》 《C从入门到精通》 《LeedCode刷题》 键盘敲烂&#xff0c;年薪百万&#xff01; 一、概念性框架理解 我们主要实现的内容&#xff1a; 1.Broker服务器&#xff1a;消息队列服务器&#xff08;服务端&…

连通块中点的数量-java

本次我们通过连通块中点的数量来加深我们对并查集的基本操作和原理&#xff0c;并且知道如何在并查集中添加附属信息。 目录 前言☀ 一、连通块中点的数量☀ 二、算法思路☀ 1.无向图&#x1f319; 2.在a b之间连一条边&#xff0c;a b可能相等&#x1f319; 3.询问a和b是否在一…

Apache POI对Excel进行读写操作

1、什么是Apache POI ​ Apache POI 是一个处理Miscrosoft Office各种文件格式的开源项目。简单来说就是&#xff0c;我们可以使用 POI 在 Java 程序中对Miscrosoft Office各种文件进行读写操作。一般情况下&#xff0c;POI 都是用于操作 Excel 文件。 Apache POI 的应用场景&…

【为什么 Google Chrome 打开网页有时极慢?尤其是国内网站,如知网等】

要通过知网搜一点资料&#xff0c;发现怎么都打不开。而且B站&#xff0c;知乎这些速度也变慢了&#xff01;已经检查过确定不是网络的问题。 清空了记录&#xff0c;清空了已接受Cookie&#xff0c;清空了缓存内容……没用&#xff01;&#xff01;&#xff01; 不断搜索&am…

注意力机制详解

引言 在阅读一篇文章时&#xff0c;我们的大脑并不平等地处理每一个字词&#xff0c;而是根据上下文自动筛选出核心信息进行深入理解。注意力机制正是借鉴了这一生物学灵感&#xff0c;使得机器学习模型能够动态地分配其“注意力”资源&#xff0c;针对不同的输入部分赋予不同…

大数据信用报告分析和评估有什么意义

大数据信用这个词在现在已经是很常见的了&#xff0c;只要是申贷的朋友对它就不陌生&#xff0c;在明面上的信用资质刚刚满足审核要求&#xff0c;但又要把控风险的时候&#xff0c;这个时候大数据信用就会作为风控机构交叉核查的重要依据。那你知道大数据信用报告分析和评估有…

代码随想录——二叉搜索树的最小绝对差(Leetcode530)

题目链接 层序遍历 /*** Definition for a binary tree node.* public class TreeNode {* int val;* TreeNode left;* TreeNode right;* TreeNode() {}* TreeNode(int val) { this.val val; }* TreeNode(int val, TreeNode left, TreeNode right) …

if constexpr实现条件编译

#include <iostream>// 利用if constexpr实现了条件编译 template<typename T1, typename T2> void test_func() {if constexpr (std::is_same_v<T1, T2>) {std::cout << "hit stage\n";} else {std::cout << "miss\n";} }i…

Microsoft的Copilot现已登陆Telegram

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗&#xff1f;订阅我们的简报&#xff0c;深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同&#xff0c;从行业内部的深度分析和实用指南中受益。不要错过这个机会&#xff0c;成为AI领…

数据结构复习指导之插入排序

文章目录 排序 考纲内容 知识框架 复习提示 1.排序的基本概念 1.1排序的定义 2.插入排序 2.1直接插入排序 2.2折半插入排序 2.3希尔排序 知识回顾 排序 考纲内容 &#xff08;一&#xff09;排序的基本概念 &#xff08;二&#xff09;插入排序 直接插…

内网不能访问域名怎么办?

在网络应用中&#xff0c;我们常常遇到内网不能访问域名的问题。这是由于内网环境限制导致的&#xff0c;内网无法直接连接到公网&#xff0c;因而无法访问互联网上的域名。我们可以利用一些特殊技术和工具来解决这个问题。 天联组网技术的应用 天联组网是一种非常受欢迎的解决…

NetApp财季报告亮点:全闪存阵列需求强劲,云计算收入增长放缓但AI领域前景乐观

在最新的财季报告中&#xff0c;NetApp的收入因全闪存阵列的强劲需求而显著增长。截至2024年4月26日的2024财年第四季度&#xff0c;NetApp的收入连续第三个季度上升&#xff0c;达到了16.7亿美元&#xff0c;较前一年同期增长6%&#xff0c;超出公司指导中值。净利润为2.91亿美…

前端开发:$nextTick()的使用及原理

目录 前言 $nextTick()的概念 $nextTick()的用法和原理 1、$nextTick()用法 2、$nextTick()原理 $nextTick()的具体使用示例 拓展&#xff1a;面试中考察$nextTick()的底层原理 最后 前言 在前端开发中&#xff0c;涉及到JS原生的使用原理是非常重要的知识点&#xff0…

使用pytorch搭建textCNN、BERT、transformer进行文本分类

首先展示数据处理后的类型&#xff1a; 第一列为文本&#xff0c;第二类为标注的标签&#xff0c;数据保存在xlsx的表格中&#xff0c;分为训练集和验证集。 textCNN 直接上整个工程代码&#xff1a; import pandas as pd import numpy as np import torch from torch.util…

c++函数基础总结

在给出的代码片段中&#xff0c;我们看到两部分内容&#xff1a;一个类定义和一个全局函数声明。让我们逐一分析它们&#xff1a; 类定义&#xff1a; cpp复制代码 class { public: void a(); }; 这个类定义是不完整的&#xff0c;因为它没有类名。但为了说明&#xff0c;我…

Linux开发工具(个人使用)

Linux开发工具 1.Linux yum软件包管理器1.1Linux安装程序有三种方式1.2注意事项1.3如何查看&#xff0c;安装&#xff0c;卸载软件包1.3.1查看软件包1.3.2安装软件包1.3.3卸载软件 2.Linux vim编辑器2.1vim的基本操作2.2vim正常模式命令集2.3vim底行模式命令集2.4vim配置 3.Lin…

如何设置eclipse中web.xml 文件的地址

新学了一个项目 &#xff0c;项目结构与平常自己构建的web项目不同 &#xff0c;用eclipse打开之后&#xff0c;eclipse竟然自己创建了一个web.xml 而项目里面原本的web.xml 文件eclipse没有识别出来&#xff0c;导致后来浏览器访问任何路径都报错404 一、修改项目中web.xml的…

Centos7.9环境下安装Keepalived(亲测版)

目录 一、在线安装 二、离线安装 (1)、 下载 (2)、安装依赖包 (3)、解压文件 (4)、编译 (4.1)、进入 keepalived-2.2.8 目录中 (4.2)、安装Keepalived (5)、配置文件修改 (6)、启动 (7)、检查启动状态 (8)、 设置开机自启 (9)、配置从节点 (10)、启动从节点keepalived…