IT之家 11 月 4 日消息,研究机构 Alinea Insight 上月(10 月 23 日)发布报告,分析育碧《刺客信条:影》游戏的销量。根据...
2025-11-04 0
诺贝尔物理学奖得主杰弗里·辛顿近日发出严厉警告,人工智能的发展速度已经超出人类控制范围,未来十年内可能面临生存威胁。这位被誉为"人工智能教父"的科学家在最新访谈中直言不讳地批评了业界主要公司的安全态度,认为只有谷歌和Anthropic在认真对待AI安全问题,而Meta和OpenAI则缺乏足够的责任感。
辛顿用一个令人不安的比喻来描述当前局面:"假设某个望远镜看到一支外星人入侵舰队将在大约10年内到达这里,我们会感到害怕,会为此做些什么。而现在的情况是,我们正在建造这些'外星人',它们将在约10年内到达,且会比我们更聪明。"这一表态凸显了辛顿对人工智能发展轨迹的深度担忧。
业界分化:安全责任的差异化表现
在评价各大科技巨头的AI安全责任时,辛顿展现出明显的偏好和批评态度。他对Anthropic首席执行官达里奥·阿莫迪、谷歌DeepMind负责人德米斯·哈萨比斯以及谷歌首席科学家杰夫·迪恩表示赞赏,认为这些领导者"相当重视安全问题"。辛顿特别指出,尽管这些公司也参与激烈的商业竞争,但他们理解超级智能AI可能取代人类的潜在威胁。
然而,辛顿对其他主要参与者的评价截然不同。他直接批评Meta"并没有特别负责任",这一评价与Meta在AI模型开源策略上的争议密切相关。该公司通过开源Llama系列模型,虽然推动了AI技术的民主化,但也引发了关于安全管控的质疑声音。
对于OpenAI,辛顿的批评更加尖锐。他指出,虽然OpenAI最初以负责任的AI发展为使命成立,但"它的责任感每天都在减少,最好的安全研究人员都在离开或已经离开"。这一评价与OpenAI近年来的人事变动高度吻合,包括联合创始人伊利亚·苏茨克维尔的离职,以及安全团队核心成员扬·雷克和丹尼尔·科科塔约洛的相继辞职。
人才流失背后的安全隐忧
OpenAI安全团队的人才流失现象确实值得关注。苏茨克维尔作为公司联合创始人之一,曾在GPT模型发展中发挥关键作用,他的离职被外界解读为对公司发展方向的不满。更令人担忧的是,雷克和科科塔约洛等专注于AI安全研究的核心人员也选择离开,他们在公开场合表达了对OpenAI安全政策变化的担忧。
这些离职事件反映了AI行业内部关于发展速度与安全保障之间平衡的深层分歧。一方面,商业竞争推动公司加快产品发布节奏;另一方面,技术的快速迭代可能超越现有安全框架的适用范围。雷克在离职后创立的新公司专注于AI安全研究,这一举动本身就说明了他对原公司安全政策的不满。
谷歌在AI安全方面的表现相对获得认可,部分原因可能与辛顿本人在该公司的长期工作经历有关。作为谷歌前员工,辛顿对公司内部文化和决策机制有深入了解。谷歌DeepMind在AI安全研究方面确实投入了大量资源,包括对AI对齐问题、可控性研究以及潜在风险评估等领域的持续关注。
技术发展与风险控制的赛跑
辛顿的警告背后是对当前AI发展速度的深度忧虑。近年来,从GPT-3到GPT-4,从Claude到Gemini,大型语言模型的能力提升速度远超预期。这些模型在自然语言处理、代码生成、逻辑推理等方面展现出的能力,已经在某些特定任务上接近或超越人类表现。
更令人担忧的是,AI系统的能力提升往往呈现出非线性特征,即所谓的"涌现能力"现象。这意味着随着模型规模和训练数据的增加,系统可能突然获得此前不具备的能力,而这种突发性使得风险评估和控制变得极其困难。
当前的AI安全研究主要集中在几个关键领域:首先是对齐问题,即确保AI系统的行为符合人类价值观和意图;其次是可控性研究,确保人类能够理解和控制AI系统的决策过程;最后是鲁棒性测试,评估AI系统在面对恶意使用或异常情况时的表现。
监管缺位与行业自律的挑战
辛顿的批评也间接反映了当前AI监管体系的不足。虽然欧盟、美国、中国等主要经济体都在制定AI监管政策,但这些政策往往滞后于技术发展,且在具体执行层面存在诸多挑战。行业自律成为当前AI安全保障的重要依托,但正如辛顿所指出的,不同公司在安全责任方面的态度存在显著差异。
Meta的开源策略虽然推动了AI技术的普及,但也带来了新的风险挑战。开源模型一旦发布,就难以控制其使用方式和应用场景,这为恶意使用创造了可能性。相比之下,Anthropic和谷歌采用的相对保守的发布策略,虽然可能限制了技术普及速度,但在安全控制方面具有明显优势。
辛顿对"外星人入侵"的比喻并非危言耸听,而是基于对AI发展轨迹的深入思考。如果AI系统真的在十年内达到超人类智能水平,那么人类社会需要在这段时间内解决一系列根本性问题:如何确保超级AI与人类利益保持一致?如何在AI能力快速提升的同时维持人类的控制权?如何应对AI可能带来的经济、社会和政治冲击?
这些问题的复杂性和紧迫性要求整个行业采取更加协调和负责任的态度。辛顿的警告实际上是在呼吁AI行业重新审视发展优先级,在追求技术突破的同时,必须将安全考量置于更加突出的位置。
人工智能的发展已经到达关键节点,辛顿作为深度学习领域的奠基人之一,他的警告具有特殊的权威性和说服力。无论业界是否完全赞同他的观点,都不能忽视他所提出的核心问题:在通往超级智能的道路上,人类必须确保自己不会成为技术进步的牺牲品。
相关文章
                            
                            IT之家 11 月 4 日消息,研究机构 Alinea Insight 上月(10 月 23 日)发布报告,分析育碧《刺客信条:影》游戏的销量。根据...
2025-11-04 0
                            
                            神经科学领域迎来重大技术突破。康奈尔大学研究团队成功开发出一种体积仅为盐粒大小的无线神经植入物,能够持续监测大脑活动超过一年时间。这项名为微型光电无绳...
2025-11-04 0
                            
                            《科创板日报》11月4日讯今日科创板晚报主要内容包括:海创药业治疗代谢相关脂肪性肝炎药物HP515临床Ⅱ期试验完成首批参与者入组;影石刘靖康回应“大疆...
2025-11-04 1
                            
                            诺贝尔物理学奖得主杰弗里·辛顿近日发出严厉警告,人工智能的发展速度已经超出人类控制范围,未来十年内可能面临生存威胁。这位被誉为"人工智能教父"的科学家...
2025-11-04 1
                            
                            不管大家承认与否,AI发展的逻辑其实已经错了。微软巨资采购AI芯片,却不能用。这几年国际上一些互联网大厂和科技大厂纷纷抢购英伟达的AI芯片,结果直接把...
2025-11-04 2
                            
                            神舟二十号航天员乘组明天回家,这背后藏着多少“硬核”经济账?就在今天(2025年11月4日)下午,官方消息确认:神舟二十号航天员乘组已完成全部在轨任务...
2025-11-04 2
                            
                            中新社成都11月4日电 (单鹏 “中国不仅有全球最大的显示市场,更是技术创新的前沿。”日本东京电子(TEL 显示事业全球总经理归山武郎近日在成都接受采...
2025-11-04 2
                            
                            当人工智能浪潮席卷全球,传统家电行业也经历着一场深刻的智能化变革。据行业数据显示,2024年中国智能家电市场规模突破8000亿元,其中AI赋能的智能产...
2025-11-04 3
发表评论