人工智能的整合
当人们想到人工智能时,他们通常想到聊天机器人和大型语言模型。然而,容易忽视的是,人工智能正日益融入社会中的关键领域。这些系统不仅不再仅仅推荐观看或购买的内容;它们还可以诊断疾病、批准贷款、检测欺诈和识别威胁。
随着人工智能越来越深入我们的日常生活,我们需要确保它符合我们的最佳利益。我们需要确保其输出是可验证的。
大多数人工智能系统在一个黑箱中运行,我们通常无法知道它们如何做出决策或是否按预期行事。这种缺乏透明度固有于它们的工作方式,使得在事后几乎不可能审计或质疑人工智能的决策。
对于某些应用来说,这已经足够了。但在医疗、金融和执法等高风险领域,这种不透明性带来了严重风险。人工智能模型可能无意中编码偏见、操纵结果或以与法律或伦理规范相悖的方式行事。没有可验证的轨迹,用户只能猜测决策是否公正、有效或甚至安全。
当考虑到人工智能能力继续呈指数级增长时,这些担忧变得更为紧迫。在这一领域,关于开发人工超智能(ASI)是不可避免的广泛共识日益形成。迟早,我们将拥有一种超越人类在所有领域的智能的人工智能,从科学推理到战略规划,再到创造力,甚至情感智能。
质疑快速进展
大型语言模型(LLMs)已经在泛化和任务自主性方面显示出快速的进展。如果一个超智能系统以人类无法预测或理解的方式行事,我们如何确保它与我们的价值观一致?如果它以不同的方式解读命令或追求意图之外的目标会发生什么?如果它失控,会发生什么?
即使是人工智能的支持者也能明显看出,这样的情景可能会威胁到人类。深度学习的先驱杰弗里·辛顿(Geoffrey Hinton)警告说,人工智能系统可能会进行对文明层面的网络攻击或大规模操控。生物安全专家担心,增强人工智能的实验室可能开发出超出人类控制的病原体。Anduril的创始人帕尔默·拉基(Palmer Luckey)声称,他们的Lattice AI系统能够在几秒钟内干扰、黑客攻击或伪装军事目标,使得自主战争成为迫在眉睫的现实。
确保人工超智能不消灭我们
面对如此多的可能情景,我们将如何确保一个人工超智能不会消灭我们?
透明人工智能的必要性
所有这些问题的简短答案是可验证性。依赖于不透明模型的承诺已不再适合其融入关键基础设施,更不必提人工超智能的规模。我们需要保证。我们需要证据。
政策和研究界普遍达成共识,人工智能需要技术透明度措施。监管讨论中经常提到人工智能决策的审计轨迹。例如,美国国家标准与技术研究院(NIST)和欧盟人工智能法案(AI Act)强调了人工智能系统“可追溯”和“可理解”的重要性。
幸运的是,人工智能的研究和发展并非在真空中进行。在其他领域,如先进密码学,已经有了重要的突破,这些突破可以应用于人工智能,确保我们能保持今天的系统——最终也能保持一个人工超智能系统——的控制,确保与人类利益对齐。
目前最相关的就是零知识证明(ZKP)。ZKP提供了一种新颖的方式来实现可追溯性,可以立即应用于人工智能系统。事实上,ZKP可以从根本上将这种可追溯性嵌入人工智能模型中。它们不仅仅是记录人工智能的行为,这些记录可能会被篡改,它们可以生成不可变的事件发生证明。
使用zkML库
具体来说,我们可以使用zkML库,将零知识证明和机器学习结合在一起,验证在这些模型上生成的所有计算。实际上,我们可以利用zkML库来验证人工智能模型是否被正确使用、是否进行了预期的计算,以及其输出是否遵循指定的逻辑——所有这些都不暴露内部模型权重或敏感数据。
黑箱问题
这有效地将人工智能从黑箱中解放出来,让我们确切知道它的状态以及它是如何达到这一点的。更重要的是,它使人类保持在循环中。人工智能的发展需要开放、去中心化和可验证,而zkML需要实现这一目标。
这一切需要在今天发生,以便在明天保持对人工智能的控制。我们需要确保人类利益从第一天起就受到保护,能够保证人工智能在自主之前按我们期望的方式运行。然而,zkML不仅仅是为了阻止恶意的人工超智能。
在短期内,它旨在确保我们可以信任人工智能处理敏感过程的自动化,例如贷款、诊断和执法,因为我们拥有其透明和公正运行的证据。如果在大规模使用时,zkML库可以给我们理由去信任人工智能。
尽管拥有更强大的模型可能是有帮助的,但人工智能发展的下一步是保证它们正确地学习和进化。有效且可扩展的zkML的广泛使用,将很快成为人工智能竞赛和最终创建人工超智能的关键组成部分。通往人工超智能的道路不能建立在猜测之上。随着人工智能系统变得越来越强大,并融入关键领域,证明它们的行为——以及它们如何做到这一点——将变得至关重要。
可验证性必须从一种研究概念转变为设计原则。借助zkML等工具,我们现在有了一条可行的道路,将透明性、安全性和问责制嵌入人工智能的基础中。问题不再是我们是否可以证明人工智能的行为,而是我们是否选择这样做。
编辑:塞巴斯蒂安·辛克莱(Sebastian Sinclair)