📰 Meta 自研 AI 推理芯片:四代路线图深度解读 - OFweek智能制造网
本文聚焦 Meta 自研 AI 推理芯片 MTIA 的四代路线图及设计思路。作者指出 Meta 选择专注推理而非训练芯片,原因在于其日常运作高度依赖海量、频繁的推理任务,尤其在排名和推荐系统中。MTIA 300 基于 RISC-V 架构,作为第一块基石,已投入生产并验证模块化设计与自研路径的可行性。随着生成式 AI 需求提升,MTIA 400 在算力与带宽方面均显著提升,支持更大规模的节点扩展,进入数据中心部署阶段。MTIA 450 进一步将内存带宽翻倍并强化对低精度自定义数据类型的支持,解决推理对带宽的瓶颈,计划 2027 年初大规模部署。MTIA 500 以模块化的终极形态出现, HB M 带宽再提升,容量可达 512GB,并引入 2×2 的小型计算芯片组配置,实现模块化组件独立演进与快速替换,计划同样在 2027 年投入大规模部署。整段路线强调开放生态与标准化:MTIA 与 OCP、PyTorch、vLLM、Triton 深度整合,硬件遵循 OCP,软件无缝对接,降低进入门槛并提升部署灵活性。文章最后对比了专注推理的 Meta 与偏向训练的厂商,提出在市场潮水退去后,谁更具可持续性有待观察,当前 MTIA 已有数十万颗在生产系统中运行。
🏷️ #自研芯片 #推理优先 #MTIA路线 #模块化设计 #开放生态
🔗 原文链接
📰 Meta 自研 AI 推理芯片:四代路线图深度解读 - OFweek智能制造网
本文聚焦 Meta 自研 AI 推理芯片 MTIA 的四代路线图及设计思路。作者指出 Meta 选择专注推理而非训练芯片,原因在于其日常运作高度依赖海量、频繁的推理任务,尤其在排名和推荐系统中。MTIA 300 基于 RISC-V 架构,作为第一块基石,已投入生产并验证模块化设计与自研路径的可行性。随着生成式 AI 需求提升,MTIA 400 在算力与带宽方面均显著提升,支持更大规模的节点扩展,进入数据中心部署阶段。MTIA 450 进一步将内存带宽翻倍并强化对低精度自定义数据类型的支持,解决推理对带宽的瓶颈,计划 2027 年初大规模部署。MTIA 500 以模块化的终极形态出现, HB M 带宽再提升,容量可达 512GB,并引入 2×2 的小型计算芯片组配置,实现模块化组件独立演进与快速替换,计划同样在 2027 年投入大规模部署。整段路线强调开放生态与标准化:MTIA 与 OCP、PyTorch、vLLM、Triton 深度整合,硬件遵循 OCP,软件无缝对接,降低进入门槛并提升部署灵活性。文章最后对比了专注推理的 Meta 与偏向训练的厂商,提出在市场潮水退去后,谁更具可持续性有待观察,当前 MTIA 已有数十万颗在生产系统中运行。
🏷️ #自研芯片 #推理优先 #MTIA路线 #模块化设计 #开放生态
🔗 原文链接