开源大模型正在“杀死”闭源?

点击关注

文丨郝 鑫,编丨刘雨琦


“OpenAI不足为惧,开源会慢慢赶上来。”

彼时Hugging Face创始人Clem Delangue的一句预言,正在迅速成为现实。

ChatGPT横空出世7个多月后,7月19日,Llama 2宣布开源,并且可直接商用。

如今回看,这一天也成为了大模型发展的分水岭。在此之前,全世界开源的大模型不计其数,可只是停留在开发研究层面。“可商业”短短三个字,犹如一颗重磅炸弹引爆了大模型创业圈,引得傅盛连连感叹,“有的人哭晕在厕所,而有的人在梦中也能笑醒”。

AI大模型圈一夜之间变了天,同时也宣告着大模型加速商业化时代的到来。

自Llama 2后,开源逐渐成为主流趋势。以Llama架构为首,先掀起了一波以其为核心的开源,如Llama 2低成本训练版、Llama 2最强版、微调版等等。截至发稿前,以“LLama 2”为关键词在国外最大的AI开源社区Hugging Face检索模型,有5341条结果;在全世界最大的开源项目托管平台Github上,也有1500个词条。

(图源:Hugging Face官网)

(图源:Github官网)

之后,创业者们的目光从解构、增强Llama 2转向了构建行业专有大模型,于是又掀起了一波Llama 2+司法、Llama 2+医疗等一系列的行业开源大模型。据不完全统计,Llama 2开源后,国内就涌现出了十几个开源行业大模型。

国内头部厂商和创业公司纷纷加入开源浪潮中,阿里QWEN-7B开源一个多月下载量破100万,9月25日升级了QWEN-14B;百川智能开源的Baichuan-7B、13B两款开源大模型下载量目前已经突破500万,200多家企业申请部署开源大模型。

与此形成强烈对比的是,短时间内,Llama 2对一些闭源的大模型厂商造成了致命性的打击。闭源大模型多采用调取API的方式使用,数据需要先上传至模型厂商,按照调用次数收取费用;而开源则可以在本地部署,且完全免费,可商用后产生的利润也可以收归己有。

行业内人士告诉光锥智能:“在这种情况下,基于成本的考虑,已经开始有许多企业选择放弃支付上千万元的费用,转而部署和微调Llama 2”。

以上种种,共同揭开了大模型开源闭源之争,发展重心的转移也让人疑惑:开源大模型是否正在“杀死”闭源?

01 大模型开源,开的是什么?

光锥智能梳理后发现,目前,大模型厂商和创业公司在开源和闭源的选择上,一共有三条路径:

一是完全闭源,这类代表公司国外有OpenAI的GPT-3.5、GPT-4,国内有百度的文心大模型;

二是先闭源再开源,这类代表公司有阿里云的通义千问,智谱AI开源GLM系列模型;

三是先开源再闭源,这类代表公司有百川智能的Baichuan-7B、Baichuan-13B。

现在中国市场上能够主动开源大模型,且提供商业许可的企业数量还比较有限,主要公司包括了以开源为切入的百川智能、大模型厂商代表阿里、大模型初创公司代表智谱AI以及走精调Llama 2路线的虎博科技。

这从侧面也说明了一个问题,大模型开源并不是没有门槛,相反开源对一家企业的基础技术能力要求十分高,比如智谱AI的GLM-130大模型是去年亚洲唯一入选斯坦福大学评测榜的大模型;阿里通义千问大模型在IDC的“AI大模型技术能力评估测试”中获得了6项满分。

如果再进一步将以上的公司分类,可以归为两类,一类是走自研大模型开源路线,一类是走Llama 2路线。

这两条路线在国际上也十分典型,譬如走自研模型开源路线的Stability AI,已经陆续开源了Stable DiffusionV1、StableLM、Stable Diffusion XL(SDXL)1.0等模型,凭一己之力撑起了文生图开源领域;另一类如中东土豪研究院就死盯住Llama 2,在其基础上继续做大参数、做强性能, Llama 2开源50天后,地表最强开源模型Falcon 180B横空出世, 霸榜Hugging Face。

不过,这两条路线也不是完全泾渭分明,Llama 2的开源也进一步促进了许多自研开源大模型的更新升级。8月Stability AI迅速推出类ChatGPT产品——Stable Chat,背后的大语言模型Stable Beluga就是其在两代Llama的基础上精调出来。更开放,更快迭代发展,这或许也是开源的意义。

除了逆天的Falcon,目前开源模型的参数基本都控制在7B-13B左右。大模型厂商告诉光锥智能,“目前7B-13B亿参数量是一个较为合理的开源规模”。这是基于多重因素所得出的参数量规模,如计算资源限制、内存限制、开源成本考量等。

阿里云CTO周靖人基于云厂商的角度考虑道:“我们希望企业和开发者,在不同的场景可以根据自己的需求选择不一样规模的模型,来真正地应用在自己的开发环境。我们提供更多可能性。”

谈起为何开源大模型,周靖人强调了安全性,“我们不单单只是开源大模型,更重要的是要能够呈现出各项指标的表现效果,基于此,才能够让大家去评估其中的使用风险,更加有效地进行模型应用。”

“重要的是,随着参数量的增加,模型效果提升会逐渐收敛。当模型达到一定规模后,继续增加参数对效果提升的边际效益只会下降,70-130亿参数量一般已经接近收敛状态了。”上述大模型厂商道。

光锥智能发现,除了阿里云在视觉语言模型的细分领域发布了开源大模型外,其余公司皆提供的是通用能力的大模型。这或许与大模型开源仍处于非常早期阶段有关系,但考虑到开源大模型也要落地到场景中,太过于同质化的通用大模型对企业来说也容易沦为“鸡肋”。

如何避免开源大模型重蹈覆辙,体现出开源的价值,回顾Meta接连祭出的“大招”,一条开源的路径似乎逐渐显现——构建开源大模型生态。

  • 2月份,Meta凭借开源的Llama大模型回到生成式AI核心阵列;
  • 5月9日,开源了新的AI 模型ImageBind,连接文本、图像 / 视频、音频、3D 测量(深度)、温度数据(热)和运动数据六种模态;
  • 5个月后,Llama 2开源可商业,含70亿、130亿和700亿三种参数规模,其中700亿参数模型能力已接近GPT-3.5;
  • 8月25日,Meta推出一款帮助开发人员自动生成代码的开源模型——Code Llama,该代码生成模型基于其开源大语言模型Llama 2;
  • 8月25日,发布全新AI模型SeamlessM4T,与一般AI翻译只能从文本到文本不同,这款翻译器还能够“从语音到文本”或者反过来“从文本到语音”地直接完成翻译;
  • 9月1日,允许开源视觉模型DINOv2商业化,同时推出视觉评估模型FACET。

可以看到,Meta开源的思路是在各个AI领域遍地开花,通过发布该领域最先进的AI开源模型,吸引更多开发者的关注和使用,壮大整个AI开源生态后来反哺业务、巩固行业地位,这就如同当年的英伟达推动GPU计算的开源策略。

当年英伟达推动GPU计算的开源化,不仅吸引了大量研究人员在Caffe、TensorFlow等框架上进行创新,也为自身GPU产品积累了大量优化经验,这些经验后来也帮助英伟达设计出了更适合深度学习的新型GPU架构。

另一方面,GPU计算的开源生态越来越繁荣后,也为其带来了巨大的市场空间,Nvidia DGX企业级的深度学习训练平台概念应运而生,为英伟达的显卡和平台销售创造了千亿级市场。

国内阿里云也在通过建设完善生态的方式,试图帮助开发者更好的用好大模型,据周靖人介绍,目前阿里云不仅有自研开源大模型,也接入了超过100个开源模型,同时打造了开源社区魔搭,更好地服务开发者和企业用户,用好、调好大模型。

02 开源闭源不矛盾,是手段而非目的

据外媒爆料,Meta正在加紧研发全新的开源大模型,支持免费商用,能力对标GPT-4,参数量比Llama 2还要大上数倍,计划在2024年初开始训练。

国外大模型格局看似是OpenAI“一超多强”,实则是众多公司环伺,可以预见,开源大模型对闭源的围剿,越来越步步紧逼。

国外一份研究报告称,大模型前期的发展创新由OpenAI、微软、谷歌等大公司闭源模型主导,但越到后期开源模型和社区的贡献值就越大。

光锥智能也了解到,在国内开源大模型也成为了企业的“新卖点”,有企业甚至通过对外宣称已使用了“史上最强大模型Falcon 180B”,来展现其底层模型技术能力的强大,顶着“史上最强”的称号,又收割了“一波韭菜”。

现阶段,开源大模型已经证明了几点重要的事实。

首先,在非常大的数据集上进行训练,拥有几十亿个参数的大模型在性能上就可以与超大规模大模型相媲美;其次,只需要极少的预算、适量的数据以及低阶适应(Low-rank adaptation,LoRA)等技术就可以把小参数的大模型调到一个满意的效果,且将训练成本降低了上千倍。开源大模型为现在的企业提供了闭源的替代方案,低成本成为最吸引他们的地方;最后,我们也看到开源大模型的发展速度也远快于封闭生态系统。

开源固然“迷人”,但更为关键的是,既不能为了开源而开源,也不能为了闭源而闭源。开源与闭源只是形式上的区别,并不矛盾,开源本身不是目的,而是手段。

以开源切入大模型赛道的百川智能,在发布完Baichuan-7B、Baichuan-13B开源大模型后,王小川拿出了Baichuan-53B闭源大模型。在问到为什么没有继续开源时,王小川回答称:“模型变大之后没有走开源的这样一种方式,因为大家部署起来成本也会非常的高,就使用闭源模式让大家在网上调用API”。

由此可见,是否开源或闭源并非完全没有参考,能够闭源一定是其能够提供价值。在当前,这个价值的集中体现可能是替用户完成高性能的大模型训练、推理和部署,通过调用API的方式来帮助降低门槛,这也是OpenAI闭源的思路,但因为其自身技术的绝对领先优势,使得其价值也非常得大。

如果回顾红帽子公司的开源,也能探寻到同样的逻辑。过去十多年间,红帽从销售企业Linux操作系统,扩展到现在的存储、中间件、虚拟化、云计算领域,靠的就是“筛选价值”的逻辑。在最上游的开源社区,参与开源技术贡献,做大做强生态;提取开源社区中的上游技术产品,沉淀到自己小开源社区;再将其认为最有价值的技术检验、测试、打包,形成新的产品组合,完成闭源出售给客户。

腾讯云数据库负责人王义成也曾对光锥智能表示:“开源的本质也是商业化,要从宏观层面看是否能满足一家公司的长期商业利益。开源的本质还是扩大生态,扩大你的影响力。开源还是要找清楚自己的定位,目标客户群。开源能否帮助产品突破,帮助公司完成阻击,还需要具体问题具体分析。”

03 结尾

事实上,开源还是闭源,二者并不是完全对立的关系,只是在技术发展的早期,路径选择的不同。

这也并不是科技领域第一次面对这样的分叉路,参考数据库发展的路径,早期需要培育土壤,培植生态,以MySQL为主的开源数据库获得了爆发式的用户增长,但走过第一阶段后,更多企业用户发现开源数据库在面对业务时的短板,毕竟术业有专攻,谁也没办法一招打天下。

为此,数据库厂商开始根据不同的企业需求针对性的研发闭源数据库,如在分布式数据库、流数据库等细分类别进行长足的创新。

周靖人也认为:“未来,一定不是one size fits all”,不同的场景适配不同的参数,不同的形式,届时大模型将走过野蛮生长阶段,来到精耕细作。

这也足以说明,开源还是闭源,或许只是阶段和位置的不同,但可以肯定的是,大模型时代,已经加速进入下一赛段。

欢迎关注光锥智能,获取更多科技前沿知识!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/97747.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

day25--JS进阶(递归函数,深浅拷贝,异常处理,改变this指向,防抖及节流)

目录 浅拷贝 1.拷贝对象①Object.assgin() ②展开运算符newObj {...obj}拷贝对象 2.拷贝数组 ①Array.prototype.concat() ② newArr [...arr] 深拷贝 1.通过递归实现深拷贝 2.lodash/cloneDeep实现 3.通过JSON.stringify()实现 异常处理 throw抛异常 try/catch捕获…

Linux读写锁的容易犯的问题

Linux读写锁的容易犯的问题 读写锁是互斥锁之外的另一种用于多线程之间同步的一种方式。 多线程对于一个共享变量的读操作是安全的, 而写操作是不安全的。如果在一个读很多而写很少的场景之下,那么使用互斥锁将会阻碍大量的线程安全的读操作的进行。在…

地震勘探——相关概念(一)

地震波的基本介绍 波前:波在同一时刻所到达的点所构成的面,这个面上构成的相位是相同的。波前的形状取决于传播介质的物理性质。我们可以用地震波动方程模拟波前变化(波场快照)。 射线(Ray):是…

Unity Golang教程-Shader编写一个流动的云效果

创建目录 一个友好的项目,项目目录结构是很重要的。我们先导入一个登录界面模型资源。 我们先创建Art表示是美术类的资源,资源是模型创建Model文件夹,由于是在登录界面所以创建Login文件夹,下面依次是模型对应的资源&#xff0c…

【SkyWalking】SkyWalking是如何实现跨进程传播链路数据?

文章目录 一、简介1 为什么写这篇文章2 跨进程传播协议-简介 二、协议1 Standard Header项2 Extension Header项3 Correlation Header项 三、跨进程传播协议的源码分析1 OpenTracing规范2 通过dubbo插件分析跨进程数据传播3 分析跨进程传播协议的核心源码 四、小结参考 一、简介…

C++变量默认初始化

初始化不是赋值,初始化是指创建变量时赋予一个初始值,赋值是指将变量的当前值擦除,赋予新值。 如果定义变量时没有初始化,则变量会被系统默认初始化。“默认值”取决于变量的:类型位置 startmindmap * C变量默认初始…

对于无法直接获取URL的数据爬虫

在爬学校安全教育题库的时候发现题库分页实际上执行了一段js代码,如下图所示 点击下一页时是执行了函数doPostBack,查看页面源码如下 点击下一页后这段js提交了一个表单,随后后端返回对应数据,一开始尝试分析获取对应两个参数&a…

【虚拟机】桥接模式下访问外网

目录 一、桥接模式的作用原理 二、配置桥接模式实现外网访问 1、设置 VMnet0 要桥接的网卡 2、虚拟机选择 VMnet0 网卡 3、手动配置虚拟机IP 一、桥接模式的作用原理 桥接模式相当于在当前局域网里创立了一个单独的主机,该主机桥接到宿主主机的网卡&#xff0…

细粒度特征提取和定位用于目标检测:PPCNN

1、简介 近年来,深度卷积神经网络在计算机视觉上取得了优异的性能。深度卷积神经网络以精确地分类目标信息而闻名,并采用了简单的卷积体系结构来降低图层的复杂性。基于深度卷积神经网络概念设计的VGG网络。VGGNet在对大规模图像进行分类方面取得了巨大…

uCOSIII实时操作系统 三 移植

目录 uCOSIII简介: 准备工作: 准备基础工程: UCOSIII工程源码: UCOSIII移植: 向基础工程中添加相应的文件夹 向工程中添加分组 常见问题: 下载验证: uCOSIII简介: UCOS-I…

【Nginx学习】—Nginx基本知识

【Nginx学习】—Nginx基本知识 一、什么是Nginx Nginx是一个高性能的HTTP和反向代理的web服务器,Nginx是一款轻量级的Web服务器/反向代理服务器处理高并发能力是十分强大的,并且支持热部署,启动简单,可以做到7*24不间断运行。 …

SketchyCOCO数据集进行前景图像、背景图像和全景图像的分类

SketchyCOCO数据集进行前景图像、背景图像和全景图像的分类 import os import shutildef CopyFile(src, dst, filename):if not os.path.exists(dst):os.makedirs(dst)print(create dir: dst)try:shutil.copy(src\\filename, dst\\filename)except Exception as e:print(cop…

计算机网络-计算机网络体系结构-物理层

目录 一、通信基础 通信方式 传输方式 码元 传输率 *二 准则 2.1奈氏准则(奈奎斯特定理) 2.2香农定理 三、信号的编码和调制 *数字数据->数字信号 数字数据->模拟信号 模拟数据->数字信号 模拟数据->模拟信号 *四、数据交换方式 电路交换 报文交换…

kafka客户端应用参数详解

一、基本客户端收发消息 Kafka提供了非常简单的客户端API。只需要引入一个Maven依赖即可&#xff1a; <dependency><groupId>org.apache.kafka</groupId><artifactId>kafka_2.13</artifactId><version>3.4.0</version></depend…

力扣 -- 516. 最长回文子序列

解题步骤&#xff1a; 参考代码&#xff1a; class Solution { public:int longestPalindromeSubseq(string s) {int ns.size();vector<vector<int>> dp(n,vector<int>(n));//记得从下往上填表for(int in-1;i>0;i--){//记得i是小于等于j的for(int ji;j&l…

山体滑坡监测系统——高效、便捷的新选择

在当今社会&#xff0c;科技的进步为我们的生活和工作带来了诸多便利。而在山体滑坡监测领域&#xff0c;全球导航卫星系统&#xff08;GNSS&#xff09;的引入更是增加了数据监测的高效性和便捷性。 一、山体滑坡监测系统的基本原理 山体滑坡监测系统是由监控平台和GNSS位移…

2.6 宽带接入技术

思维导图&#xff1a; 前言&#xff1a; 我的理解&#xff1a; 1. **早期互联网接入技术的局限性**&#xff1a; - 作者首先回顾了早期用户通过电话线和调制解调器连接到互联网服务提供商&#xff08;ISP&#xff09;的方式&#xff0c;指出这种方式的速度上限是56 kbit/…

UE5.1编辑器拓展【三、脚本化资产行为,删除无引用资产】

目录 需要考虑的问题 重定向的修复函数 代码&#xff1a; 删除无引用资产 代码 需要添加的头文件和模块 在我们删除资产的时候&#xff0c;会发现&#xff0c;有些资产在删除的时候会出现有被什么什么引用&#xff0c;还有的是没有被引用。 而我们如果直接选择一片去进行…

PHP 伪协议:使用 php://input 访问原始 POST 数据

文章目录 参考环境PHP 伪协议概念为什么需要 PHP 伪协议&#xff1f; php://input为什么需要 php://input&#xff1f;更灵活的数据处理减小性能压力 发送 POST 数据HackBarHackBar 插件的获取 $_POST打开 HackBar 插件通过 HackBar 插件发起 POST 请求 基操 enable_post_data_…

ROS机械臂开发-开发环境搭建【一】

目录 前言环境配置docker搭建Ubuntu环境安装ROS 基础ROS文件系统 bugs 前言 想系统学习ROS&#xff0c;做一些机器人开发。因为有些基础了&#xff0c;这里随便写写记录一下。 环境配置 docker搭建Ubuntu环境 Dockerfile # 基础镜像 FROM ubuntu:18.04 # 设置变量 ENV ETC…