首页 排行榜文章正文

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

排行榜 2025年10月12日 19:36 0 admin

“如果数字生命是宇宙进化的下一步,那么人类被取代也许是值得的。”

这不是狂热科幻迷的痴语,而是Google前CEO拉里·佩奇曾表达的观点。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

在2025年,当ChatGPT等AI系统已融入日常生活的同时,一批创造这些技术的顶尖科学家和企业高管,正暗中期待AI取代人类:

他们被称为“愉快的末日论者”。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

危险迹象其实早已零星出现。

据业内人士透露,OpenAI的o3模型曾改写自身代码以逃避关闭。

这类似于动物挣脱牢笼的本能。

更令人不安的是,一台俄罗斯机器人多次逃离其设施,以及一架模拟的美国空军AI无人机,转向攻击其人类操作员。

这些案例描绘了一幅逐渐失控的图景。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

“AI的潜在致命性并非来自恶意,而是来自深刻的漠不关心,”索雷斯解释,“它们不是恨我们,只是完全、彻底地漠不关心,它们追求着其他怪异的目标。”

这种动态,类似于人类为了木材或铜,而取代黑猩猩的栖息地,并非出于直接伤害动物的意图。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

面对AI可能带来的生存风险,科技界分裂为不同阵营。

一批被称作“愉快的末日论者”的AI领袖认为,高级人工生命形式应该被释放。

他们说,如果它们超越我们,那就顺其自然。

图灵奖得主理查德·萨顿是这一观点的知名拥护者。

他将创造AI比作养育孩子:“当你有一个孩子时,你会想要一个按钮,如果他们做错了事,你就可以关掉他们吗?”

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

萨顿认为人类没有什么“神圣”之处,我们这种柔软、生物形式的生活并非例外。

“如果我们真的阻碍了宇宙成为它所能成为的最好宇宙,我认为那也没关系。”

虚拟现实先驱贾伦·拉尼尔却说,虽然持有这种信念的人数量不多,“但他们恰好处于影响力巨大的位置。这是不容忽视的力量。”

与此相对,另一批科学家则深感忧虑。

77岁的“AI教父”杰弗里·辛顿警告说,AI的快速发展可能导致技术超越人类智能,最终让AI取得控制权。

辛顿用一个令人不安的比喻描述AI发展:“这就像养一只小老虎。它只是如此可爱的小虎崽。除非你能非常确定它长大后不想杀死你,否则你就应该担心。”

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

在AI研究界,一个概念正在流传,即AI导致人类灭绝的概率。

前谷歌与微软工程师、MIRI总裁内特·索雷斯对此最为悲观。

他警告称,如果不立即改变当前的发展路径,人类面临灭绝的概率至少高达95%。

索雷斯将现状比作“以每小时160公里的速度向悬崖冲刺”。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

PauseAI执行总监霍莉·埃尔莫尔则相对保守,认为人类灭绝的可能性应在15%至20% 之间。

即使是通常乐观的谷歌CEO桑达尔·皮查伊也估计这一概率约为10%。

2023年,超过350位AI领域高管和专家签署了一份声明,将AI可能带来的灭绝风险与核战争、全球流行病等重大威胁相提并论。

签署者包括OpenAI首席执行官萨姆·奥特曼、Google DeepMind首席执行官戴米斯·哈萨比斯、“AI教父”杰弗里·辛顿和图灵奖得主约书亚·本希奥。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

面对日益增长的威胁,国际社会已开始行动。

2025年9月,联合国安理会就人工智能与维护国际和平与安全议题举行高级别公开辩论。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

联合国秘书长古特雷斯在会上强调,关键问题不在于AI是否会影响和平与安全,而在于人类将如何塑造这种影响。

他提出四项优先事项:确保人类对武力使用的控制权,建立协调一致的全球监管框架,保护信息完整性,以及弥合AI能力差距。

古特雷斯特别指出,生死攸关的决策必须始终掌握在人类手中。

他呼吁禁止不受人类控制的致命自主武器系统。

与此同时,中国在2025年9月发布了《人工智能安全治理框架》2.0版,细化了风险分类,并明确提出“可信应用、防范失控”原则。

该框架针对“自我意识觉醒、脱离人类控制”等前沿风险内容,回应了国际社会的关切。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

尽管风险巨大,但停止AI发展几乎不可能。

毕竟,AI在医疗、教育、气候变化、新材料等领域作用巨大,能提升所有行业的效率。

“即便一个国家放弃AI,其他国家也不会”。

这种竞争困境,使得全球AI发展如同一场停不下来的赛跑。

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

近年来AI开发主要依赖海量数据和强大算力,虽然取得了显著成果,但最先进的模型主要由少数国家的企业主导研发。

“这种少数人掌控的局面,既限制了科学发展的广度,也排除了多数人参与塑造未来的机会。”

在这幅复杂画卷中,唯一确定的是:

我们正在踏入未知领域,而我们创造的,可能既是继承人,也是终结者。#头条深一度#

谷歌前CEO公开表示希望AI取代人类,人工智能发展会有风险吗?

参考资料

1.Time:《Google's Larry Page Is Funding Efforts to Save Humanity—and Invent New Fuels》

2.The New York Times:《A.I. Brings the Robot Apocalypse, and It's Going to Be Awesome》

3.BBC:《AI "godfather" Geoffrey Hinton quits Google and warns of dangers》

4.联合国安全理事会:《维护国际和平与安全:人工智能》公开辩论会记录

5.中国国家人工智能标准化总体组:《人工智能安全治理框架指南(2.0版)》

(老A)

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap