《人工智能指数报告》由斯坦福大学、AI指数指导委员会及业内众多大佬Raymond Perrault、Erik Brynjolfsson 、James Manyika、Jack Clark等人员和组织合著,旨在追踪、整理、提炼并可视化与人工智能(AI)相关各类数据,该报告已被大多数媒体及机构公认为最权威、最具信誉的人工智能数据与洞察来源之一。2024年版《人工智能指数报告》是迄今为止最为详尽的一份报告,包含了前所未有的大量原创数据。
报告一共分为九个章节,一共502页,后续请关注“鲁班模锤“一起深入探究。章节回目如下:
第一章节:研究与发展
基础模型
工业界整体而言继续主导前沿人工智能研究。2023年,工业界发布了51个机器学习模型,而学术界只贡献了15个。2023年产学研合作创历史新高,发布21个著名模型。如今,创建前沿AI模型需要大量的数据、计算能力和资金资源,这些都是学术界所不具备的。例如,GPT-4大概花费了7800万美元,而Google的Gemini大概花费了1.9亿美元。
2023年,总共发布了149个基础模型,是2022年发布数量的两倍多。在这些新发布的模型中,65.7%是开源的,而2022年和2021年分别只有44.4%和33.3%。近年来,基础模型的数量急剧上升,自2022年以来翻了一番多,自2019年以来增长了近38倍。在2023年发布的149个基础模型中,98个为开放访问。
开源的基础模型,谷歌推出了最多的模型(18个),其次是Meta(11个)和微软(9个)。在2023年发布基础模型最多的学术机构是加州大学伯克利分校(3个)。
2023年,世界上大多数基础模型来自美国(109个),其次是中国(20个)和英国。自2019年以来,美国一直保持着主导地位。 |
算力与成本
根据人工智能指数的估计,最先进的人工智能模型的培训成本已经达到了前所未有的水平。AI指数的估计证实了近年来模型训练成本显著增加的猜测。例如,2017年,引入了支撑几乎所有现代LLM架构的原始Transformer模型,其训练成本约为900美元。2019年发布的RoBERTa Large在许多经典理解基准测试(如SQuAD和GLUE)上取得了最先进的成果,其训练成本约为16万美元。快进到2023年,OpenAI的GPT-4和Google的Gemini Ultra的训练成本分别约为7800万美元和1.91亿美元。
自 2012 年以来著名机器学习模型的训练计算。例如较早的AlexNet需要 470 PFLOP 进行训练。2017年发布的Transformer需要大约 7,400PFLOP。谷歌的 Gemini Ultra是目前最先进的基础模型之一,所需算力直接到达500亿 PFLOP。
专利
从2021年到2022年,全球人工智能专利授权增加大幅上升62.7%。自2010年以来,获得授权的人工智能专利数量增长了31倍以上。中国在AI专利领域占据主导地位。
开源技术
自2011年起,GitHub上与AI相关的项目数量持续增长,从2011年的845个增至2023年的约180万个。尤为显著的2023,GitHub人工智能项目的总数就急剧增长了59.3%。
2023 年,美国在获得 GitHub 星星数量最多的国家中处于领先地位,总数为 1050 万。所有主要地理区域,包括欧盟和英国、中国和印度,授予其所在国家/地区的项目的 GitHub 星级总数均同比增加。
截至 2023 年,GitHub AI项目主要来至美国,印度为第二大贡献者。值得深究的是自2016 年以来,来自美国的项目比例一直在稳步下降。
图书出版
2010年至2022年间,人工智能出版物总量几乎翻了两番,从2010年的约8.8万篇增至2022年的超过24万篇。大部分的出版主题围绕着机器学习,依托杂志,用于教学培训。