顶尖的人工智能科学家呼吁世界各国领导人采取更强有力的行动来应对人工智能风险,并警告说自六个月前在布莱切利园举行首届人工智能安全峰会以来,进展不够。
当时,世界各国领导人承诺要负责任地管理人工智能。然而,随着第二届首尔人工智能安全峰会(5 月 21 日至 22 日)的临近,25 位世界顶尖的人工智能科学家表示,实际上并没有采取足够的措施来保护我们免受该技术的风险。在今天发表在《科学》杂志上的一篇专家共识论文中,他们概述了全球领导人应采取的紧急政策优先事项,以应对来自人工智能技术的威胁。
论文合著者、牛津大学工程科学系教授菲利普·托尔表示:“在上届人工智能峰会上,全世界一致认为我们需要采取行动,但现在是时候从模糊的提议转向具体的承诺了。这篇论文为企业和政府应该承诺做什么提供了许多重要的建议。”
面对人工智能可能快速发展的局面,世界各国的应对措施尚未步入正轨
论文作者认为,世界各国领导人必须认真考虑这种可能性:在当前或未来十年内,将开发出功能强大的通用人工智能系统(在许多关键领域超越人类的能力)。他们表示,尽管世界各国政府一直在讨论前沿人工智能,并尝试引入初步指导方针,但这与许多专家预期的快速变革性进展的可能性完全不相称。
目前对人工智能安全性的研究严重不足,估计只有 1-3% 的人工智能出版物涉及安全性。此外,我们既没有机制也没有机构来防止滥用和鲁莽行为,包括关于使用能够独立采取行动和追求目标的自主系统。
世界顶尖人工智能专家发出行动号召
有鉴于此,国际人工智能先驱社区已发出紧急行动号召。合著者包括杰弗里·辛顿、姚期智、宋晓峰、已故的丹尼尔·卡尼曼,共 25 位全球人工智能及其治理领域的顶尖学术专家。作者来自美国、中国、欧盟、英国和其他人工智能强国,包括图灵奖获得者、诺贝尔奖获得者和标准人工智能教科书的作者。
这是如此庞大的国际专家群体首次就全球政策制定者在应对先进人工智能系统风险方面的优先事项达成一致。
人工智能治理的当务之急
作者建议政府:
- 建立快速反应、专业的人工智能监督机构,并为其提供远超几乎任何现行政策计划的资金。相比之下,美国人工智能安全研究所目前的年度预算为 1000 万美元,而美国食品药品管理局 (FDA) 的预算为 67 亿美元。
- 要求进行更加严格的风险评估并规定可执行的后果,而不是依赖自愿或未明确指定的模型评估。
- 要求人工智能公司优先考虑安全性,并证明其系统不会造成伤害。这包括使用“安全案例”(用于其他安全关键技术,如航空),将证明安全性的负担转移到人工智能开发人员身上。
- 实施与人工智能系统带来的风险水平相称的缓解标准。当务之急是制定政策,当人工智能达到某些能力里程碑时,这些政策会自动触发。如果人工智能发展迅速,严格的要求就会自动生效,但如果进展缓慢,要求就会相应放松。
作者认为,对于未来能力超强的人工智能系统,政府必须做好带头监管的准备。这包括授权开发这些系统、限制它们在关键社会角色中的自主权、因能力令人担忧而停止开发和部署、强制访问控制,以及要求采取能够抵御国家级黑客的信息安全措施,直到有足够的保护措施准备就绪。
人工智能的影响可能是灾难性的
人工智能已经在黑客攻击、社交操纵和战略规划等关键领域取得了快速进展,并可能很快带来前所未有的控制挑战。为了实现不良目标,人工智能系统可以赢得人类的信任,获取资源并影响关键决策者。为了避免人类干预,它们可以在全球服务器网络中复制其算法。大规模网络犯罪、社交操纵和其他危害可能会迅速升级。在公开冲突中,人工智能系统可以自主部署各种武器,包括生物武器。因此,不受控制的人工智能发展很有可能导致大规模生命和生物圈的损失,以及人类的边缘化或灭绝。
加州大学伯克利分校计算机科学教授、世界人工智能标准教科书作者斯图亚特·拉塞尔 OBE 表示:“这是一份由顶尖专家共同撰写的共识文件,它呼吁政府进行严格监管,而不是由行业制定自愿行为准则。现在是时候认真对待先进的人工智能系统了。它们不是玩具。在我们了解如何确保它们的安全之前增强它们的能力是极其鲁莽的。公司会抱怨难以满足法规要求——‘法规扼杀创新’。这太荒谬了。对三明治店的监管比对人工智能公司的监管还多。”
资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载