在 CES 2024 上,NVIDIA 推出了一系列硬件和软件,旨在释放 Windows 11 PC 上生成式 AI 的全部潜力。
在 PC 上本地运行生成式 AI 对于隐私、延迟和成本敏感型应用程序至关重要。在 CES 上,NVIDIA 将在整个技术堆栈中带来新的创新,以实现 PC 上的生成式 AI 时代。RTX GPU 能够以最高的性能运行最广泛的应用程序。这些 GPU 中的 Tensor Core 可显著提高 AI 在要求最苛刻的工作和娱乐应用中的性能。
NVIDIA 推出了 GeForce RTX 40 SUPER 系列 GPU。GeForce RTX 4080 SUPER 生成 AI 视频的速度比 GeForce RTX 3080 Ti 快 1.5 倍以上,图像生成速度比 GeForce RTX 3080 Ti 快 1.7 倍以上。 SUPER GPU 上的 Tensor Core 每秒可提供高达 836 万亿次 AI 操作 (TOPS),为游戏、创作和日常生产力带来变革性的 AI 功能。
本月晚些时候,每家顶级原始设备制造商 (OEM) 的新笔记本电脑开始发货——包括宏碁、华硕、戴尔、惠普、联想、微星、雷蛇、三星等。这些系统带来了一整套开箱即用的生成式 AI 功能。
NVIDIA RTX 台式机和移动工作站采用 NVIDIA Ada Lovelace 架构,可提供应对企业工作流程挑战所需的性能。
配备 RTX GPU 的移动工作站可以运行 NVIDIA AI Enterprise 软件,例如 TensorRT 和 NVIDIA RAPIDS,以实现简化、安全的生成式 AI 和数据科学开发。每个 RTX A800 40 GB GPU 都包含 NVIDIA AI Enterprise 的三年许可证,为 AI 和数据科学提供工作站开发平台。
AI Workbench 是一个统一的工具包,允许开发人员快速创建、测试和自定义预训练的生成式 AI 模型和大型语言模型 (LLM),将于本月晚些时候发布测试版。它使开发人员能够灵活地协作处理项目并将其迁移到任何支持 GPU 的环境。它还提供对 GitHub 等流行存储库的简化访问。
为 PC 用例构建 AI 模型后,可以通过高性能 AI 推理库 NVIDIA TensorRT 对其进行优化,以充分利用 RTX GPU 上的 Tensor Core。NVIDIA 最近发布了 TensorRT-LLM,将 TensorRT 扩展到基于文本的应用程序,这是一个用于加速大型语言模型的开源库。TensorRT-LLM 的最新更新现已推出,它将 Phi-2 添加到不断增长的 PC 预优化模型列表中,与其他推理后端相比,其运行速度提高了五倍。
借助这些新工具和库,PC 开发人员已准备好在目前由 RTX GPU 加速的 500 多款 AI 驱动的 PC 游戏和应用程序之上交付更多生成式 AI 应用程序。
在 CES 上,NVIDIA 及其开发者合作伙伴将发布多款新的生成式 AI 应用和服务,包括 NVIDIA RTX Remix,这是一个用于创建经典游戏 RTX 重制版的平台。它将于本月晚些时候发布公开测试版,其中包含生成式 AI 纹理工具,可将经典游戏的纹理转换为现代 4K 基于物理的渲染 (PBR) 材质。
NVIDIA ACE 微服务也即将发布,包括生成式 AI 语音和动画模型,使开发人员能够将智能、动态的数字化身添加到游戏中。借助 NVIDIA 技术演示 Chat with RTX,AI 爱好者可以使用一种称为检索增强生成 (RAG) 的流行技术轻松地将 PC LLM 连接到自己的数据。它由 TensorRT-LLM 加速,使用户能够与他们的笔记、文档和其他内容进行交互。它也可以作为开源参考项目提供,因此开发人员可以轻松地将相同的功能实现到自己的应用程序中。
在 CES 2024 上了解有关 NVIDIA 发布这些公告和其他公告的更多信息。