首页 十大品牌文章正文

“AI不能做什么?”超200名科学家警示AI风险

十大品牌 2025年09月25日 21:20 0 aa

包括10位诺贝尔奖得主以及众多领先人工智能(AI)研究人员在内的200多位知名政治家和科学家近期发布了一项紧急呼吁,要求针对危险的AI用途采取具有约束力的国际措施。9月22日上午,诺贝尔和平奖得主玛丽亚·雷萨(Maria Ressa)在联合国大会高级别周的开幕演讲中公布了这封公开信。她恳请各国政府携手合作,以“防止AI带来普遍不可接受的风险”,并“明确界定AI永远不应被允许去做的事情”。

“AI不能做什么?”超200名科学家警示AI风险

一封公开信

关于AI可能带来生存性威胁的警告并非首次。早在2023年3月,包括埃隆·马斯克(Elon Musk)在内的1000多名技术研究人员和行业领袖就曾呼吁暂停强大AI系统的开发。两个月后,知名AI实验室领导人,包括OpenAI的萨姆·阿尔特曼(Sam Altman)、Anthropic的达里奥·阿莫代伊(Dario Amodei)和谷歌DeepMind的德米斯·哈萨比斯(Demis Hassabis),签署了一份一句话的声明,主张将AI对人类构成的生存风险与核战争和大流行病所带来的威胁同等对待。尽管9月22日的公开信与过去的努力相呼应,但其不同之处在于呼吁具有约束力的限制措施,也是首次有来自多个科学学科的诺贝尔奖得主共同参与,警示AI威胁。这封公开信名为《全球AI红线呼吁》由三家非营利组织联合发起:加州大学伯克利分校的人类兼容AI中心(Center for Human-Compatible AI)、未来协会(The Future Society)以及法国AI安全中心(French Center for AI Safety)。

签署者来自数十个国家,如生物化学家詹妮弗·杜德纳(Jennifer Doudna)、经济学家达龙·阿西莫格鲁(Daron Acemoglu)和物理学家焦尔焦·帕里西(Giorgio Parisi)也签署了公开信,也有知名作家斯蒂芬·弗莱(Stephen Fry)和尤瓦尔·赫拉利(Yuval Noah Harari),以及前国家元首,如爱尔兰前总统玛丽·鲁滨逊(Mary Robinson)和2016年获得诺贝尔和平奖的哥伦比亚前总统胡安·曼努埃尔·桑托斯(Juan Manuel Santos)。图灵奖得主、被誉为“AI三教父”中的两人——杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio),也签署了这封公开信。图灵奖常被视为计算机科学领域的“诺贝尔奖”。来自全球60多个民间社会组织也对9月22日的公开信表示支持,从英国的智库Demos到北京AI安全与治理研究院均有参与。

“AI不能做什么?”超200名科学家警示AI风险

这份名为《全球AI红线呼吁》的公开信警告称,AI“当前的发展轨迹带来了前所未有的危险”。文件指出:“有必要达成一项关于清晰且可验证红线的国际协议。”这封公开信敦促政策制定者在2026年底前签署协议,鉴于AI能力的快速发展。“数千年来,人类已经学会——有时是以惨痛代价——强大的技术既可能带来益处,也可能造成危险后果。”赫拉利说,“在人类还能够理解和掌控之前,必须就AI设定明确的红线,否则这种技术将重塑社会,摧毁人类存在的根基。”如今的AI风险很快可能被更为毁灭性的大规模影响所掩盖。例如,信中提到一些专家最近的警告:AI可能很快导致大规模失业、人为制造的大流行病以及系统性侵犯人权。

联合国大会讨论

这封公开信是在联合国大会高级别周开幕之际发布的。AI的崛起也成为9月24日联合国安理会会议的焦点。世界领导人和外交官在承认AI几乎不可估量的能力的同时,也敦促对其潜在风险保持警惕,尤其当AI被恶意势力使用时,以及其在军事用途上可能带来的危险。联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)在会议开幕致辞中表示:“问题不在于AI是否会影响国际和平与安全,而在于我们将如何塑造其负责任的影响。”他说:“AI可以加强预防与保护,预测粮食不安全和人口流离失所,支持排雷行动,帮助识别潜在的暴力爆发,等等。但如果没有监管,它也可能被武器化。”

“AI不能做什么?”超200名科学家警示AI风险

自三年前ChatGPT问世引爆AI热潮以来,这项技术令人惊叹的能力令世界震惊。科技公司争相研发更强大的AI系统,而专家则不断警告其风险,包括人为制造的大流行病、大规模虚假信息传播或失控的流氓AI等存在性威胁,因此呼吁建立安全防护措施。联合国采纳新的治理架构,是迄今为止遏制AI的最新,也是最大规模的努力。此前的多边尝试,包括英国、韩国和法国举办的三次AI峰会,只产生了不具约束力的承诺。上个月,联合国大会通过了一项决议,设立AI的两个关键机构——全球论坛以及独立的科学专家小组。这一里程碑举措旨在引导全球在该技术上的治理努力。9月24日的辩论则聚焦于安理会如何确保AI在应用中负责任地遵守国际法,并支持和平进程和冲突预防。

这也是9月22日科学家公开信的建议之一。信件并未提出具体建议,而是表示政府官员和科学家必须通过谈判来划定红线,以确保达成国际共识。公开信提出一些潜在的限制方向,比如禁止致命的自主武器、禁止AI系统的自主复制以及禁止AI被用于核战争。“防止AI对人类造成严重且可能不可逆转的损害符合我们至关重要的共同利益,我们应当采取相应行动。”化学武器禁令组织前总干事艾哈迈特·于祖姆居(Ahmet Üzümcü)说,该组织曾在他任职期间(2013年)获得诺贝尔和平奖。

“AI不能做什么?”超200名科学家警示AI风险

首个外交AI机构

联合国在9月25日也启动首个外交层面的AI机构“全球AI治理对话”,西班牙首相佩德罗·桑切斯(Pedro Sanchez)和联合国秘书长安东尼奥·古特雷斯担任活动主讲人。这一平台将为各国政府和“利益相关方”提供讨论国际合作、分享想法和解决方案的场所。该论坛计划明年在日内瓦正式召开,2027年在纽约召开会议。与此同时,论坛将启动招募工作,寻找40名专家组成科学小组,其中包括2名联合主席,1名来自发达国家,1名来自发展中国家。

“AI不能做什么?”超200名科学家警示AI风险

这些新机构代表着“一场象征性的胜利”。伦敦智库查塔姆研究所(Chatham House)研究员伊莎贝拉·威尔金森(Isabella Wilkinson)在博文中写道,它们是“迄今为止全球最具包容性的AI治理方式”。“但在实践中,这些新机制看起来大多无能为力。”她补充道。潜在的问题之一是,联合国庞大的行政体系是否能够监管像AI这样快速发展的技术。不过令人欣慰的是,AI国际治理正在吸引越来越多的政府和非政府行动者参与,这也将大幅增加AI国际治理机制的有效性。

图片来源于网络

iWeekly周末画报独家稿件,未经许可,请勿转载

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap