非就是需要少一些算力而已。你们知道deepseek 用chatgpt训练数据吧?
省算力意义不用夸大,和以前我们马工编程序管理内存一样,现在没人干了因为算力大了。
DeepSeek需要英伟达(NVIDIA)的原因如下:
1. 依赖英伟达的硬件生态
DeepSeek的底层计算可能依赖于英伟达的GPU,尤其是在AI模型的训练阶段。NVIDIA的GPU以其高并行计算能力和出色的性能表现,成为AI计算领域的首选。
NVIDIA的硬件广泛用于支持AI基础设施,DeepSeek的产品或服务可能需要利用这些硬件来实现高效的运算性能。
2. CUDA软件生态支持
NVIDIA的CUDA平台是AI计算和深度学习领域的核心工具,许多AI应用程序都依赖于CUDA优化。
DeepSeek需要在NVIDIA硬件上运行,并使用CUDA工具链来最大化性能,从而更高效地完成其搜索和推理任务。
3. AI模型训练阶段不可或缺
即使DeepSeek是一个针对推理优化的解决方案,AI模型的训练通常需要大规模的GPU计算能力,而NVIDIA的A100和H100 GPU是目前市场上的主流选择。
DeepSeek的开发者在构建、优化和训练模型时,可能已经深度依赖NVIDIA的硬件和软件支持
4. 高效兼容现有基础设施
目前市场上的AI数据中心和云计算平台大多基于NVIDIA的GPU,DeepSeek要进入市场,需要与这些基础设施高度兼容。
DeepSeek的性能优化可能在NVIDIA硬件上效果最佳,从而进一步增强NVIDIA的销售需求
5. 市场整合优势
DeepSeek的出现可能会增强AI市场的多样性,但这不会削弱NVIDIA的地位,反而可能刺激更多企业购买NVIDIA硬件以运行DeepSeek的解决方案。
深度学习的快速发展仍然需要NVIDIA提供底层计算支持,DeepSeek的成功反过来也会推动对NVIDIA产品的需求