不是科幻,写成科幻:生成式人工智能基础模型何时才能走进普通人家?

一个理解生成式人工智能未来的有用比喻,是从昂贵的大型主机到可负担的个人电脑的历史转变。如今的主流基础模型——例如 GPT?4 级别的系统——很像集中式的大型主机:强大、远程,只能通过网络接口访问。但这些庞大的模型是否最终能够在本地运行,直接安装在个人或组织的设备上?

试想在不久的将来,你购买一台电脑时,就像操作系统预装在机器上一样,它自带一个经过完全训练的生成式 AI 模型,该模型被直接刻录在存储硬件上。这样的“个性化 GPT”能够继续使用私有的、内部的数据进行训练和定制,而无需将敏感信息传输到云端。

这样的转变将自动缓解当前许多关于 AI 使用的安全与隐私问题。数据不再离开场所,微调在本地完成,风险暴露大幅下降。

但也许更具变革性的是经济影响。

在过去四十年里,几乎每个组织都需要自己的网站,这催生了大量高薪的工作岗位,如网页设计、维护、网络安全、内容创作以及系统管理。

当每家公司、机构和非营利组织都需要一个属于自己的、根据其工作流程、文化与数据量身定制的内部生成式模型时,一场类似的就业浪潮可能会再次出现。围绕这些模型,可能会形成完整的新部门,例如:

  • 本地模型训练与维护
  • 企业级提示工程
  • AI 安全与治理
  • 模型审计与合规
  • 组织内部的多模型协同管理

向内部生成式 AI 的转变不仅会解决技术问题——它将重新塑造劳动力市场。

内部 GPT 模型能在 20 年内实现吗?我的答案是:可以。

让我们审视一下硬件趋势。假设未来的旗舰 GPT 级别模型拥有 2 万亿参数。在今天,这样的模型仅存储其训练权重就需要数十 TB 的存储容量。但在二十年后,我们完全有理由期待:

  • 10 TB 甚至更多的本地存储 会成为中高端个人系统的标准配置
  • 内存扩展速度将超过现有预测,使多 TB 内存系统可被机构负担
  • GPU 集群的价格将足够低廉,即使单个设备无法容纳整个模型,组织仍可在本地运行模型

即使个人设备无法达到要求,小型的内部集群——相当于今天的一个小型机房——也可以轻松运行万亿参数级别的 AI 模型。

还有,对内部生成式模型的需求甚至可能催生全新的机器类别——超越现代电脑的某种东西。正如在大型主机时代很难想象个人电脑的存在一样,为容纳个人生成式 AI 而构建的设备,可能会彻底重新定义我们对“计算”的概念。

从集中式 AI 向个人化、内部化的生成式模型转变不仅是可能的,而且是极有可能发生的。基于我对人工智能的理解,我相信这一趋势必将到来。




更多我的博客文章>>>
请您先登陆,再发跟帖!