一个理解生成式人工智能未来的有用比喻,是从昂贵的大型主机到可负担的个人电脑的历史转变。如今的主流基础模型——例如 GPT?4 级别的系统——很像集中式的大型主机:强大、远程,只能通过网络接口访问。但这些庞大的模型是否最终能够在本地运行,直接安装在个人或组织的设备上?
试想在不久的将来,你购买一台电脑时,就像操作系统预装在机器上一样,它自带一个经过完全训练的生成式 AI 模型,该模型被直接刻录在存储硬件上。这样的“个性化 GPT”能够继续使用私有的、内部的数据进行训练和定制,而无需将敏感信息传输到云端。
这样的转变将自动缓解当前许多关于 AI 使用的安全与隐私问题。数据不再离开场所,微调在本地完成,风险暴露大幅下降。
但也许更具变革性的是经济影响。
在过去四十年里,几乎每个组织都需要自己的网站,这催生了大量高薪的工作岗位,如网页设计、维护、网络安全、内容创作以及系统管理。
当每家公司、机构和非营利组织都需要一个属于自己的、根据其工作流程、文化与数据量身定制的内部生成式模型时,一场类似的就业浪潮可能会再次出现。围绕这些模型,可能会形成完整的新部门,例如:
- 本地模型训练与维护
- 企业级提示工程
- AI 安全与治理
- 模型审计与合规
- 组织内部的多模型协同管理
向内部生成式 AI 的转变不仅会解决技术问题——它将重新塑造劳动力市场。
内部 GPT 模型能在 20 年内实现吗?我的答案是:可以。
让我们审视一下硬件趋势。假设未来的旗舰 GPT 级别模型拥有 2 万亿参数。在今天,这样的模型仅存储其训练权重就需要数十 TB 的存储容量。但在二十年后,我们完全有理由期待:
- 10 TB 甚至更多的本地存储 会成为中高端个人系统的标准配置
- 内存扩展速度将超过现有预测,使多 TB 内存系统可被机构负担
- GPU 集群的价格将足够低廉,即使单个设备无法容纳整个模型,组织仍可在本地运行模型
即使个人设备无法达到要求,小型的内部集群——相当于今天的一个小型机房——也可以轻松运行万亿参数级别的 AI 模型。
还有,对内部生成式模型的需求甚至可能催生全新的机器类别——超越现代电脑的某种东西。正如在大型主机时代很难想象个人电脑的存在一样,为容纳个人生成式 AI 而构建的设备,可能会彻底重新定义我们对“计算”的概念。
从集中式 AI 向个人化、内部化的生成式模型转变不仅是可能的,而且是极有可能发生的。基于我对人工智能的理解,我相信这一趋势必将到来。
更多我的博客文章>>>