DeepSeek撬动AI产业链巨变 AI产业链未来已来!(8)

2025-02-17 10:01  蓝鲸新闻

AMD生产用于游戏的GPU,并且与英伟达一样,正在将其应用于数据中心内的AI。它的旗舰芯片是Instinct MI300X。AMD CEO苏姿丰博士强调了该芯片在推理方面的卓越表现,而不是与英伟达竞争训练。微软正在使用AMD Instinct GPU为其Copilot模型提供服务。今年AMD的人工智能芯片销售额可能超过40亿美元。

英特尔最近宣布了其AI加速器的第三个版本Gaudi 3。英特尔将其直接与竞争对手进行了比较,将其描述为更具成本效益的替代方案,在运行推理方面优于英伟达H100,同时在训练模型方面速度更快。英特尔拥有不到1%的AI芯片市场份额。

更广泛采用的主要障碍可能是软件。AMD和Intel都参与了一个名为UXL基金会的大型行业组织,该组织正在努力创建Nvidia CUDA的免费替代品,用于控制AI 应用的硬件。

英伟达未来将与其最大的客户在芯片上翟看竞争。虽然包括 Google、Microsoft、亚马逊、甲骨文在内等的云服务GPU的采购额占到英伟达收入的 40% 以上,但都在构建供内部使用的处理器。

除了推理芯片Inferentia外,AWS首次推出了针对大模型训练的AI芯片Tranium。客户以通过AWS租用该芯片。该芯片首个用户是苹果公司。

Google自2015年以来,一直在使用所谓的张量处理单元(TPU)来训练和部署AI模型。已经有六个版本的Trillium芯片,用于开发其模型包括Gemini和Imagen。谷歌还使用英伟达芯片并通过其云提供它们。

微软正在构建自己的AI加速器和处理器,名为Maia和Cobalt。OpenAI 的定制芯片设计已接近完成,与Broadcom合作设计,由台积电制造,使用其3纳米工艺技术,以确保芯片可以进行大规模生产。如果成功,该芯片将于2026年在台积电开始量产。

摩根大通分析师估计,为大型云提供商构建定制芯片的市场价值可能高达300亿美元,每年可能增长20%。

开发人员越来越多地将AI工作从服务器转移到个人拥有的笔记本电脑、PC和手机。像OpenAI开发的大模型需要大量强大的GPU集群来进行推理一样,像Apple和微软这样的公司正在开发"小模型",需要更少的电力和数据,并且可以在电池供电的设备上运行。Apple和Qualcomm正在更新他们的芯片,以更有效地运行AI,为AI模型添加了神经处理器的专门部分。

4.让模型变小有章可循,小模型应用前景喜人

越来越多的企业正在推出SLM,挑战AI模型开发中"越大越好"的流行观念。而DeepSeek R1推理模型在首次亮相后,以低廉的训练成本展示了领先的性能。DeepSeek的崛起表明,规模更大并不意味着更好,规模更小、更灵活的玩家可以与AI巨头大模型相媲美,并有可能战胜它们。

SLM以更低的成本,更高的效率,可能会改变企业AI部署的格局,使预算有限的中小企业企业更容易获得AI模型的高级功能。