一、说明
AI的新闻当然不是即时的,但作为趋势和苗头,我们不得不做出自己的决定。比如,一些软件的支持是否持续,哪些现成的软件将不再使用,等等。
图片来自中途
以下是NLPlanet为您选择的有关NLP和AI的每周文章,指南和新闻!
二、😎 来自网络的新闻
- Stack Overflow宣布OverflowAI。Stack Overflow正在通过OverflowAI将生成AI集成到他们的平台中。这包括使用矢量数据库的语义搜索和个性化结果。他们还增强了跨不同平台的搜索功能,并为Stack Overflow for Teams引入了企业知识摄取功能。
- 稳定性AI宣布稳定扩散XL 1.0。Stability AI 发布了 SDXL 1.0,这是一个开放访问图像模型,具有惊人的 6 亿个参数模型集合管道。此版本在颜色、对比度、照明和阴影方面有重大改进。
- 介绍Bittensor语言模型 — 适用于移动和边缘设备的最先进的3B参数模型。BTLM 是一种具有 3 亿个参数的语言模型,可在 RAM 有限的移动和边缘设备上高效运行。凭借更高的准确性和较大的上下文窗口,它在基准测试中优于类似大小的模型。BTLM 在准确性上与 7B 模型保持一致,但在内存占用和推理成本方面超过了它们。其目的是在边缘设备上启用AI应用程序,从而减少对集中式云基础架构的需求。
- 认识FreeWilly,我们庞大而强大的教学微调模型。Stability AI和CarperAI实验室合作发布了FreeWilly,这是一个使用监督微调(SFT)技术微调的LLaMA 2模型。FreeWilly2在某些任务中的表现与GPT-3.5相当,其功能已得到Stability AI研究人员和Hugging Face的验证。这两种型号均在非商业许可下公开提供。
- OpenAI在“低准确率”上破坏了AI编写的文本检测器。OpenAI决定停用其AI分类器,因为它在检测AI生成的文本方面的准确率较低。大型语言模型的快速发展使得有效识别特征或模式变得具有挑战性。
- Microsoft的Bing Chat在Chrome和Safari上针对“选定用户”进行测试。Microsoft已经确认,必应聊天将很快在Google Chrome和Safari等浏览器上使用。
- 前沿模型论坛。Anthropic、Google、Microsoft和OpenAI联手创建了前沿模型论坛,这是一个致力于安全和负责任地开发前沿AI模型的平台。该论坛旨在推进人工智能安全研究,建立安全最佳实践,分享知识,并利用人工智能应对社会挑战。
三、📚 来自网络的指南
- 使用 Gradio 构建生成式 AI 应用程序。Hugging Face和 DeepLearning.ai 推出了一个新的短期课程,使用Gradio构建生成AI应用程序。该课程侧重于使用开源语言模型创建用户友好的应用程序,项目范围从文本摘要到图像分析和图像生成。
- 构建一个 AI 图表生成器,只需 50 行即可适应任何数据集类型。开发人员可以使用 GPT-3.5 或 GPT-4 和 Langchain 轻松创建 AI 图表生成器,只需 50 行代码。
- 自动化网络研究。本文探讨了网络研究代理的发展。该方法涉及使用LLM生成搜索查询,执行搜索,抓取页面,索引文档以及为每个查询查找最相关的结果。
- 使用 Whisper 和 GPT-4 创建自动会议记录生成器。本指南探讨了会议记录生成工具的开发,该工具利用 Whisper 和 GPT-4 来有效地总结讨论、提取重要细节和分析情绪。
四、🔬 有趣的论文和资料库
- karpathy/llama2.c:在一个纯C文件中的推理骆驼2。Andrew Karpathy在纯C中发布了LLaMA 2推理的教育实现。该项目允许您在 PyTorch 中训练 LLaMA 2 LLM 架构,然后将权重加载到单个 C 文件中以进行高效推理。
- FLASK:基于对齐技能集的细粒度语言模型评估。FLASK 是专门为 LLM 绩效评估设计的评估协议。它将评估分解为 12 种不同的技能集,允许根据特定技能(如逻辑稳健性、事实性和理解力)对模型的性能进行详细分析。
- 对对齐语言模型的通用和可转移攻击。最近的一项研究探讨了对开源和闭源语言模型的对抗性攻击的自动构建,使它们容易受到有害命令的影响。这些攻击转移到广泛使用的聊天机器人,引发了人们对有效修补这些漏洞的担忧。深度学习模型对对抗性攻击的固有敏感性仍然存在不确定性,类似于计算机视觉面临的挑战。
- WebArena:用于构建自治代理的逼真Web环境。WebArena 是一个逼真的 Web 环境,允许自主代理在与电子商务、社交论坛、软件开发和内容管理相关的任务中发展他们的技能。它提供了评估任务完成情况的基准,并强调了改进代理的必要性,因为即使是像 GPT-4 这样的高级模型的成功率也只有 10.59%。
- LLaVA:大型语言和视觉助手。LLaVA是一种大型多模态模型,结合了视觉和语言处理,以提高视觉和语言理解。它实现了令人印象深刻的聊天功能,并为科学 QA 设置了新的最先进的准确性。初步实验表明,与 GPT-4 相比,它在合成多模态指令遵循数据集上具有更高的性能。
- FABRIC:通过迭代反馈个性化扩散模型。研究人员开发了一种称为FABRIC的免训练方法,将用户反馈整合到基于扩散的文本到图像模型中。通过利用自我注意,该模型可以根据迭代用户输入增强其生成过程,从而提高输出质量和更好的用户体验。
- 3D-LLM:将3D世界注入大型语言模型。一项新的研究引入了3D-LLM,它通过结合3D点云及其特征来增强具有3D理解的语言模型。通过使用 3D 特征提取器和现有的 2D VLM,3D-LLM 在字幕、问答和导航等任务上实现了令人印象深刻的性能,超过了现有的 LLM 和 VLM。
- 具有规划、长上下文理解和程序综合的真实网络代理。WebAgent是一个LLM驱动的代理,它使用Flan-U-PaLM和HTML-T5来改善真实网站上的自主Web导航和任务完成。通过分解指令、总结 HTML 文档和生成 Python 程序,与以前的模型相比,成功率提高了 50%。
- STEVE-1:Minecraft 中文本到行为的生成模型。Minecraft中的STEVE-1模型可以理解和响应文本指令,这要归功于其训练过程,包括预先训练的模型和自我监督的行为克隆。它不仅在遵循各种说明方面设定了新的基准,而且还以较低的培训成本实现了卓越的性能,使研究人员可以在预算内使用它。
感谢您的阅读!如果你想了解更多关于NLP的信息,记得关注NLPlanet。您可以在LinkedIn、推特、媒体和我们的 Discord 服务器上找到我们!