OpenAI三位创始人亲自撰文:人工智能不能自我监管,需要外部监管机制

资讯1年前 (2023)更新 花花
269 0 0
AI技术遇上你的创意,会碰撞出怎样的火花?国内历史最久GC品牌诚邀你揭晓答案

人工智能的发展是一个涉及到全球科技界和人类社会的重大问题。目前人工智能的应用已经涵盖了经济、社会、政治、医疗等各个领域。当然,一些负面影响和潜在威胁也随之而来,例如数据隐私、人才流失、不公平和不道德的应用等问题。正因为如此,科技界和政府机构都在考虑如何建立监管机构来管理和规范人工智能的发展。

OpenAI的提议是一个很好的起点,他们建议建立一个国际机构来监管和管理超级智能的发展,而这个机构可以类比于管理核能的国际原子能机构。这个机构可以建立和跟踪国际标准和协议,对人工智能的研究和应用进行限制和监控,以确保人工智能技术的安全和透明性。

当然,如何建立和管理这样一个机构仍然存在许多挑战。例如,谁将负责监管机构并制定监管标准,机构的成员国将如何合作以确保监管的透明性和公正性,以及如何在不抑制创新和发展的同时,保证人工智能的安全和规范。这些都是需要深入讨论和研究的问题。

总的来说,为了建立一个能够有效管理人工智能发展的国际机构,需要各方合作,包括政府、学者、科技企业和公民社会等。这个机构应该不仅仅对功能演化的超级智能进行监管,还应该致力于解决人工智能带来的社会问题,推动人工智能的可持续和平等发展。

以下为撰写原文:

鉴于我们现在所看到的情况,可以想象,在未来十年内,人工智能系统将在大多数领域超过专家技能水平,并开展与当今最大的公司之一一样多的生产活动。

就潜在的优点和缺点而言,超级智能将比人类过去不得不应对的其他技术更强大。我们可以有一个更加繁荣的未来;但我们必须管理风险才能实现这一目标。考虑到存在风险的可能性,我们不能只是被动反应。核能是具有这种特性的技术的常用历史例子;合成生物学是另一个例子。

我们也必须降低当今人工智能技术的风险,但超级智能将需要特殊的处理和协调。

起点

有许多想法对我们有很大的机会成功驾驭这一发展很重要;在这里,我们列出了我们对其中三个的初步想法。

首先,我们需要在领先的开发工作之间进行一定程度的协调,以确保超级智能的发展方式使我们能够保持安全并帮助这些系统与社会顺利整合。有很多方法可以实施;世界主要政府可以建立一个项目,许多当前的努力都成为其中的一部分,或者我们可以集体同意(在下面建议的新组织的支持下),前沿人工智能能力的增长速度仅限于每年的一定速度。

当然,个别公司应该遵守极高的负责任标准。

其次,我们最终可能需要类似的东西国际原子能组织用于超级智能工作;任何超过特定能力(或计算等资源)阈值的工作都需要受到国际权威机构的约束,该权威机构可以检查系统,要求审计,测试是否符合安全标准,限制部署程度和安全级别等。跟踪计算和能源使用情况可能会有很长的路要走,并给我们一些希望,这个想法实际上是可以实现的。作为第一步,公司可以自愿同意开始实施这样一个机构有朝一日可能要求的内容,作为第二步,个别国家可以实施它。重要的是,这样一个机构应该专注于降低生存风险,而不是应该留给个别国家的问题,比如定义人工智能应该被允许说什么。

第三,我们需要使超级智能安全的技术能力。这是一个开放式研究问题我们和其他人正在为此付出很多努力。

不在范围内的内容

我们认为,允许公司和开源项目开发低于显著能力阈值的模型非常重要,而不需要我们在这里描述的那种法规(包括许可证或审计等繁琐的机制)。

今天的系统将在世界上创造巨大的价值,虽然它们确实存在风险,但这些风险的水平与其他互联网技术相称,社会可能的方法似乎是合适的。

相比之下,我们所关注的系统将具有超越任何尚未创建的技术的能力,我们应该小心,不要通过将类似的标准应用于远低于此标准的技术来淡化对它们的关注。

公众意见和潜力

但是,最强大的系统的治理以及有关其部署的决策必须有强有力的公众监督。我们相信世界各地的人们应该民主地决定边界和默认值对于人工智能系统。我们还不知道如何设计这样的机制,但我们计划尝试开发它。我们仍然认为,在这些广泛的范围内,个人用户应该对他们使用的AI的行为方式有很大的控制权。

考虑到风险和困难,值得考虑我们为什么要构建这项技术。

在OpenAI,我们有两个基本原因。首先,我们相信这将带来一个比我们今天想象的更好的世界(我们已经在教育、创造性工作和个人生产力等领域看到了早期的例子)。世界面临许多问题,我们将需要更多的帮助来解决;这项技术可以改善我们的社会,每个人使用这些新工具的创造性能力肯定会让我们感到惊讶。经济增长和生活质量的提高将是惊人的。

其次,我们认为阻止超级智能的创造是没有直觉风险和困难的。由于好处是如此巨大,建造它的成本每年都在下降,建造它的参与者数量正在迅速增加,而且它本质上是我们所走的技术道路的一部分,阻止它需要像全球监控制度这样的东西,即使这样也不能保证有效。所以我们必须把它做好。

扫描以下二维码加群

(有机会白嫖ChatGPT和MJ账号)

告诉管理员您遇到的问题

我们会第一时间为您挑选优质教程和帮您解决问题

OpenAI三位创始人亲自撰文:人工智能不能自我监管,需要外部监管机制
© 版权声明

相关文章

分享