导读:AI大模型日报,爬虫+LLM自动生成,一文览尽每日AI大模型要点资讯!
目前采用“文心一言”(ERNIE-4.0-8K-latest)生成了今日要点以及每条资讯的摘要。欢迎阅读!
《AI大模型日报》今日要点:今日AI大模型领域的资讯涵盖了多个重要进展。在视频生成方面,Runway和Luma推出了新功能,尽管Yann LeCun指出这些模型与世界模型的目标仍有距离,但AI视频生成技术的进步仍激发了创造力。同时,教程详细介绍了如何使用英伟达T4、A10训练小型文生视频模型,为资源有限的开发者提供了实践指南。在模型可靠性方面,ICML 2024介绍了利用大语言模型提高分布外检测性能的新方法,而佐治亚理工、多伦多大学、康奈尔大学的研究则通过整合LLM到进化算法中,优化了分子设计。此外,韩国团队提出的Block Transformer架构通过拆分注意力机制,显著提升了大模型解码速度。微软AI CEO Mustafa Suleyman则讨论了AI的社会影响及监管必要性。在人才方面,Sora的两位核心人物Tim Brooks和Bill Peebles的博士论文为AI视觉生成领域提供了新方向。最后,华为诺亚方舟实验室和Meta的LLM Compiler分别在数学推理和代码优化方面取得了突破,为AI推理和开发者工具带来了新的可能性。这些进展共同展示了AI大模型在多个领域的广泛应用和快速发展。
标题: Runway和Luma又打起来了!Yann LeCun炮轰:你们再牛,也不是「世界模型」
摘要: 科技记者提炼要点: 人工智能(AI)正改变我们的生活和工作方式,但多数人仍不知如何使用。因此,「AI在用」专栏推出,通过直观案例介绍AI使用方法,并鼓励读者投稿创新型用例。在AI视频领域,竞争尤为激烈。Runway推出了Gen-3 Alpha模型,向部分用户开放测试,其效果在光影、质量等方面大幅提升,备受追捧。同时,Luma推出了关键帧新功能,免费向所有用户开放,可实现好莱坞级别特效。然而,图灵奖得主Yann LeCun指出,这些视频生成模型并不理解物理世界,与世界模型研究的目标相去甚远。尽管如此,AI视频生成技术仍在不断进步,激发着人们的创造力与想象力。
网址: Runway和Luma又打起来了!Yann LeCun炮轰:你们再牛,也不是「世界模型」 | 机器之心
标题: 从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定
摘要: 科技记者提炼要点: 2024年最流行的AI趋势之一是文本生成视频模型,如OpenAI的Sora和Stability AI的Stable Video Diffusion。本教程详细介绍了如何从头开始构建一个小规模的文本生成视频模型,包括理解理论、编写架构和生成结果。作者因资源有限,仅创建了小规模架构,并建议使用Colab或Kaggle的T4 GPU进行高效训练。模型采用传统方法,在数据集上训练并测试。由于真实训练数据集算力要求高,作者使用Python生成的移动对象视频数据集和GAN架构。GAN由两个深度神经网络组成,相互竞争直至生成的数据与原始数据无法区分。教程解释了GAN的工作原理,并展示了如何使用Python库构建和训练模型。最终,通过一系列步骤,包括导入必要的库、定义训练数据和编码,读者可以构建自己的文本生成视频模型。
网址: 从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定 | 机器之心
标题: ICML 2024| 大语言模型助力基于CLIP的分布外检测任务
摘要: 本文介绍了一种名为Envisioning Outlier Exposure (EOE) 的分布外检测方法,旨在提高机器学习模型在开放世界环境中的可靠性。该方法通过利用大型语言模型(LLM)来想象潜在的异常值,从而提升视觉语言模型(VLMs)的OOD检测性能,且无需访问实际的OOD数据。EOE通过设计基于视觉相似性的LLM提示和新的评分函数,有效区分难以识别的OOD样本。实验表明,EOE在不同OOD任务中实现了优越性能,并可扩展到大规模数据集如ImageNet-1K。该方法不依赖于未知OOD数据的先验知识,具有零样本特性,即同一预训练模型可应用于各种特定任务的ID数据集,无需单独训练。此外,EOE的有效性分析显示,即使生成的异常类标签未命中真实OOD类,仍能提高OOD检测表现。该研究为OOD检测领域提供了新的思路。
网址: ICML 2024| 大语言模型助力基于CLIP的分布外检测任务 | 机器之心
标题: 击败25个分子设计算法,佐治亚理工、多伦多大学、康奈尔提出大语言模型MOLLEO
摘要: 佐治亚理工学院、多伦多大学和康奈尔大学的研究者合作提出了分子语言增强进化优化(MOLLEO),通过整合化学知识的预训练大语言模型(LLMs)到进化算法中,显著改善了分子优化能力。这项研究旨在解决分子发现中的计算挑战,通过减少昂贵的目标评估来加速优化过程。MOLLEO利用LLM作为遗传操作符,生成高质量候选物,在多项黑箱优化任务中表现出优越性能。实验证明,该方法在单目标和多目标优化任务中均优于基线方法,展示了LLM在分子生成中的有效性与前景。
网址: 击败25个分子设计算法,佐治亚理工、多伦多大学、康奈尔提出大语言模型MOLLEO | 机器之心
标题: 拆分Transformer注意力,韩国团队让大模型解码提速20倍
摘要: 韩国科学技术研究院、LG和DeepMind的研究团队提出了一种名为Block Transformer的新架构,通过拆分Transformer的注意力机制,将全局注意力分解为块级和块内注意力,使大模型解码提速最高达20倍,同时大幅降低了内存开销。该架构通过减少全局KV缓存的频繁访问,提高了推理吞吐量和GPU利用率,且在多个零样本任务上保持了与原始Transformer相当甚至略高的准确率,展现了优异的训练效率。论文地址:https://arxiv.org/abs/2406.02657。
网址: 拆分Transformer注意力,韩国团队让大模型解码提速20倍 | 量子位
标题: 深度|微软 AI CEO Mustafa Suleyman:今年年底,我们将拥有实时的语音界面,允许完全动态的交互
摘要: 在阿斯彭思想节上,微软AI负责人Mustafa Suleyman与财经记者Andrew Ross Sorkin进行了对话。Suleyman强调AI将对社会产生深远影响,与加密货币的热潮不同,AI已在多个领域展现价值。他呼吁中美在技术竞争中寻求合作,指出全球化背景下合作的重要性。Suleyman还讨论了AI监管的必要性,强调监管可以确保技术为人类服务,并提到历史上技术被成功监管的先例。对于OpenAI内部的安全团队离职和公开反对情况,他表示支持举报人,并尊重OpenAI的成就,同时强调他们在推进技术发展的同时重视安全。
网址: 深度|微软 AI CEO Mustafa Suleyman:今年年底,我们将拥有实时的语音界面,允许完全动态的交互|ai|应用程序|微软|源代码|语音界面|财务会计|财务报表_手机网易网
标题: 人刚毕业,颠覆整个AI界:扒一扒Sora两带头人博士论文
摘要: 2024年,生成式AI蓬勃发展,OpenAI推出的Sora将视频生成技术推向新高度,其背后的主要推动者为Tim Brooks和Bill Peebles,二人被誉为“Sora之父”。他们均于2023年从加州大学伯克利分校博士毕业,师出同门,并在博士期间专注于AI视频生成研究。Tim Brooks的博士论文深入探讨了长视频生成、基于人体姿态的场景图像生成,以及通过结合大型语言模型和文本到图像模型的能力来创建监督训练数据的方法。这些研究共同提升了生成模型合成图像和长视频的能力。而Bill Peebles的博士论文则以图像生成模型为主题。他们的研究为AI视觉生成领域的发展奠定了坚实基础,并指明了未来方向。
网址: 人刚毕业,颠覆整个AI界:扒一扒Sora两带头人博士论文 | 机器之心
标题: 等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了
摘要: 机器之心AIxiv专栏报道了华为蒙特利尔诺亚方舟实验室的研究,提出了一种名为MindStar的新方法,通过树搜索增强预训练大型语言模型(LLMs)在数学推理上的能力。该方法在推理时通过过程监督奖励模型(PRM)评估中间步骤,有效提升了开源模型如Llama-13-B和Mistral-7B的推理能力,接近闭源大模型GPT-3.5和Grok-1的表现,同时大幅节省计算资源。研究表明,将计算资源从微调转移到推理时间搜索有助于高效增强推理能力,为未来研究开辟了新途径。
网址: 等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了 | 机器之心
标题: 开发者狂喜!Meta最新发布的LLM Compiler,实现77%自动调优效率
摘要: Meta推出了一项名为LLM Compiler的人工智能突破,这是一套旨在优化代码并彻底改变编译器设计的强大开源模型。该模型通过在庞大的语料库上训练,增强了对编译器中间表示、汇编语言和优化技术的理解,能够执行以前仅限于人类专家或专业工具的任务。LLM Compiler在代码大小优化方面取得了显著成果,优化潜力达到自动调优搜索的77%,可显著减少编译时间并提高代码效率。此外,该模型在反汇编方面表现出色,往返反汇编成功率为45%,对逆向工程任务和旧代码维护具有巨大价值。该技术的推出有望改变开发者处理代码优化的方式,使其更快、更高效、更经济。
网址: 开发者狂喜!Meta最新发布的LLM Compiler,实现77%自动调优效率 | 机器之心