1. 在可以预见的未来(至少10年以上),AI大模型将不断快速发展,每个月都会有新的更新。ASIC(专用集成电路)难以跟上这种速度和灵活性。目前的GPU(图形处理单元)就像70、80、90年代的CPU(中央处理器)一样,功能将不断增强,以适应不断扩展的新用途。
2。谁能说英伟达(NVIDIA)不会将大语言模型(LLM)中常用的固定算法做成加速辅助芯片,甚至直接集成到GPU中?就像当年的CPU 8086和浮点加速器8087一样。
3. 最终,在大语言模型领域的佼佼者,不仅在于基础算法结构的竞争,更在于对边缘情况的增强和优化。所有的应用开发中,80%的功能只需要20%的投入,而最后20%的功能却需要80%的投入。而恰恰是这最后的20%,决定了项目的成功与否。