速递|Meta 公布最新定制 ai 芯片进展,预计 2024 年 GPU 投入 180 亿美元
文章来源:有新Newin
Meta 刚刚公布了其定制 AI 芯片的最新进展。Meta 在上一年度首次公布了其第一代 AI 推理加速器,即 Meta 训练与推理加速器(MTIA)v1,专门设计用于 Meta 的 AI 工作负载。它特别适用于改善其应用和技术中各种体验的深度学习推荐模型。
MTIA 旨在为 Meta 独有工作负载提供最高效的架构。随着 AI 工作负载在其产品和服务中变得越来越重要,这种效率成为 Meta 能够为全球用户提供最佳体验的关键。MTIA v1 是提高基础设施计算效率、更好支持软件开发人员构建新的、改善用户体验的 AI 模型的重要一步。
Meta 的下一代大规模基础设施正在建设中,考虑到了人工智能的需求,包括支持新的生成式 AI 产品、推荐系统和先进的 AI 研究。随着支持 AI 模型的计算需求及模型复杂性的增长,预计这方面的投资在未来几年将会增加。
下一代 MTIA 是 Meta 定制、特定领域芯片的全栈开发计划的一部分,该计划旨在解决其独特的工作负载和系统。这个新版本的 MTIA 在计算和内存带宽上是先前解决方案的两倍多,同时保持对工作负载的紧密联系。
它旨在有效服务于提供高质量推荐的排名和推荐模型。这款芯片的架构专注于为排名和推荐模型提供计算、内存带宽和内存容量之间的正确平衡。
MTIA 已部署在 Meta 的数据中心,并正在生产环境中提供服务。通过这个项目,Meta 能够为更密集的 AI 工作负载投入更多的计算能力。
到目前为止的结果表明,这款 MTIA 芯片能够处理低复杂度和高复杂度的排名和推荐模型,这些模型是 Meta 产品的关键部分。因为 Meta 控制了整个技术栈,它能够实现比商业可用的 GPU 更高的效率。
Meta 正在持续投资定制芯片。MTIA 将成为 Meta 为其独特 AI 工作负载构建和扩展最强大、最高效基础设施的长期路线图的重要组成部分。
Meta 正在设计其定制芯片,以便与现有基础设施以及未来可能利用的新的、更先进的硬件(包括下一代 GPU)合作。实现定制芯片的目标意味着投资不仅在计算芯片上,还包括内存带宽、网络和容量以及其他下一代硬件系统。
目前,Meta 正在进行几个项目,旨在扩大 MTIA 的应用范围,包括对生成式 AI 工作负载的支持。这一旅程才刚刚开始。
PS:回顾 2023 年至今,大部分 AI 炒作都集中在基础模型的横向能力上,但 AI 的真正机会在于 AI 以及 Agent 如何重新配置与创造 B2B 价值链。
Reference:
https://about.fb.com/news/2024/04/introducing-our-next-generation-infrastructure-for-ai/