旧金山/纽约(路透社)- OpenAI前首席科学家Ilya Sutskever成立了一家名为安全超级智能(SSI)的新公司,旨在开发远远超过人类能力的安全人工智能系统。
他和他的联合创始人本周在接受路透社独家采访时概述了他们的创业计划。
现年37岁的Sutskever是人工智能领域最具影响力的技术专家之一,师从被称为“人工智能教父”的Geoffrey Hinton。Sutskever是扩展性的早期倡导者——即人工智能性能随着大量计算能力的提高而提高——这为ChatGPT等生成式人工智能的进步奠定了基础。他说,SSI将以不同于OpenAI的方式实现扩展。
以下是采访要点。
创立SSI的基本原理
“我们已经确定了一座与我工作的山有点不同的山……一旦你爬到这座山的顶端,范式就会改变……我们对人工智能的了解将再次改变。届时,最重要的超级智能安全工作将会展开。”
“我们的第一个产品将是安全的超级智能。”
在超级智能之前,你会发布和人类一样聪明的人工智能吗?
“我认为问题是:它安全吗?它是世界上一股向善的力量吗?我认为,当我们走到这一步时,世界将会发生很大的变化,以至于很难向你们提供我们将做什么的最终计划。
我可以告诉你,世界将是一个非常不同的地方。在更广阔的世界里,每个人思考人工智能的方式将会非常不同,难以理解。这将是一场更加激烈的对话。这也可能不仅仅取决于我们的决定。”
SSI将如何决定什么是安全的人工智能?
“要回答你的问题,很大一部分需要我们做一些重要的研究。特别是如果你和我们有同样的看法,事情会发生很大的变化……有许多伟大的想法正在被发现。
许多人都在思考AI如何变得更强大,需要做哪些步骤和测试?这有点棘手了。还有很多研究要做。我不想说现在已经有了明确的答案。但这是我们要解决的问题之一。”
论尺度假设与人工智能安全性
“每个人都说‘规模假设’。每个人都忽略了一个问题,我们在按比例缩放什么?过去十年深度学习的重大突破是缩放假设的一个特殊公式。但它会改变的……随着它的变化,系统的能力将会增加。安全问题将成为最严重的问题,这是我们需要解决的问题。”
关于开源ssi的研究
“在这一点上,并非所有人工智能公司都将其主要工作开源。这同样适用于我们。但我希望,根据某些因素,会有很多机会将相关的超级智能安全工作开源。也许不是全部,但肯定有一些。”
关于其他人工智能公司的安全研究工作
“实际上,我对这个行业有很高的评价。我认为,随着人们不断取得进步,所有不同的公司都将意识到——可能在略有不同的时间——他们所面临的挑战的本质。所以,与其说我们认为没有其他人可以做到,不如说我们认为我们可以做出贡献。
(报道:Kenrick Cai, Anna Tong和Krystal Hu;编辑:彼得·亨德森和埃德温娜·吉布斯)
×