DeepSeek动摇不了英伟达的“芯片帝国”?
今年1月,DeepSeek R1模型的横空出世在科技领域掀起了巨大波澜,其对人工智能芯片市场的冲击尤为显著。作为行业领先企业,英伟达受到直接影响。
DeepSeek R1模型开发用时仅两个月,成本不到600万美元,使用约2000枚英伟达芯片,关键性能却可与OpenAI的推理模型o1相比。
相较而言,OpenAI训练GPT-4时使用了25000个英伟达A100芯片,花费在8000万至1亿美元之间;GPT-5的训练成本据报道高达10亿美元,其“星际之门”项目计划建设容纳40万个英伟达芯片的数据中心。
这种对比引发全球业界思考:高额芯片成本是否仍是AI发展必要条件?DeepSeek R1以低成本高效率对这一认知提出挑战。市场因此担忧对英伟达高性能芯片依赖可能减弱,英伟达股价在1月27日下跌近17%,3月中旬一度降至去年9月以来的低点。
图片来源:英伟达
然而,在日前举行的GTC 2025大会上,英伟达CEO黄仁勋回应了这一担忧,指出“这种理解是完全错误的”,并表示未来计算对芯片的需求不会下降,反而会增长。
芯片需求依旧旺盛?
黄仁勋为何如此确定?未来计算需求为何会推动芯片使用量增加?对此,他也给出了解释。
DeepSeek R1确实以较少资源实现了相当性能,使一些观察者推测,未来AI模型可通过算法优化——如稀疏计算或模型压缩——减少对芯片数量的依赖。
但需注意,DeepSeek R1虽然在训练阶段所需芯片数量减少,但实际部署和使用时仍需大量计算资源支持实时任务。黄仁勋表示,“推理是计算密集过程。像DeepSeek这样的模型可能需要比传统模型多100倍的计算能力,未来推理模型需求会更高。”
图片来源:英伟达
