近年来,人工智能(AI)技术的高速发展已引起全球关注。越来越多的研究表明,具备与人类竞争水平的智能的 AI 系统可能对社会和人类带来深远的风险。这一风险已被顶级 AI 实验室所承认,并在阿西洛马人工智能原则(Asilomar AI Principles)中得到体现。
阿西洛马人工智能原则指出,先进的 AI 技术将在地球生命历史上产生深刻的变革,因此应该用足够的关注和资源进行规划和管理。
然而,现实中这种规划和管理并未得到充分实施。近几个月以来,AI 实验室之间展开了一场失控的竞赛,开发和部署越来越强大的数字化智能。这些智能的行为甚至连其创造者都无法充分理解、预测和控制。现代 AI 系统逐渐展现出与人类竞争的通用任务能力,这让人们不得不思考:我们是否应该让机器充斥我们的信息渠道,传播虚假宣传?是否应该自动化所有工作,包括令人满意的工作?我们是否应该开发可能最终超过、取代我们的非人类智能?我们是否应该冒失控文明的风险?
只有当我们确信 AI 系统的影响是积极的、风险是可控的时候,才应该开发强大的 AI 系统。OpenAI 近期关于通用人工智能的声明也强调了这一点,并提出未来可能需要进行独立审查,并限制用于创建新模型的计算能力的增长速度。
因此,有专家呼吁所有 AI 实验室立即暂停训练超过 GPT-4 水平的 AI 系统,暂停时间至少 6 个月。这个暂停应该是公开且可验证的,并涵盖所有关键参与者。如若无法迅速实施此暂停,政府应介入并实行禁令。
在此期间,AI 实验室和独立专家应共同制定和实施一套共享的 AI 设计和开发安全协议,该协议需经独立外部专家严格审计和监督。这些协议应确保遵循它们的系统在合理怀疑范围之外是安全的。这并不意味着要暂停整个 AI 的开发,而仅仅是从危险的竞赛中退一步,避免制造越来越大的不可预测黑盒模型和突现能力。
AI 研究和开发应该聚焦于使现有的强大、先进的系统变得更精确、安全、可解释、透明、稳健、可信、忠诚且与人类目标保持一致。
同时,AI 开发者必须与政策制定者合作,大力加快 AI 治理系统的发展。
这些治理系统至少应包括:
专门负责 AI 的新兴和有能力的监管机构;
对高能力 AI 系统和大型计算能力池的监督和跟踪;来源和水印系统以区分真实内容与合成内容并跟踪模型泄露;
健全的审计和认证生态系统;对 AI 造成的损害承担责任;
对技术 AI 安全研究的充足公共资金支持;
以及应对 AI 对经济和政治产生的剧变的充足资源机构;
人类可以与 AI 共享美好未来。在成功创造了强大的 AI 系统之后,我们可以享受一个 “AI 夏天”,在其中我们可以收获成果,为全人类明确设计这些系统的利益,并让社会有机会适应。人类曾经暂停了对可能对社会产生灾难性影响的其他技术的使用,我们也可以在这里做到。让我们享受一个漫长的 AI 夏天,而不是毫无准备地冲进秋天。
无论如何,这是一个关乎人类未来的重要议题,值得全社会的深思和共同探讨。我们希望 AI 技术能够始终服务于人类、造福于人类,并在全球范围内实现公正、公平和可持续的发展。
目前 Future of Life 发起的签名已经得到诸多业界知名人士响应,包括埃隆马斯克、苹果联合创始人 Steve Wozniak、Skype 联合创始人 Jaan Tallinn 等,签名人数目前还在继续增加中。