首页 今日快讯文章正文

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

今日快讯 2025年09月24日 20:19 1 aa

前阵子图灵奖得主YoshuaBengio跟学生EricElmoznino,在《Science》发了篇叫《IllusionsofAIconsciousness》的论文。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

这文章一出来,直接把“AI能不能有意识”这事儿的讨论推到了风口浪尖,各方观点吵得不可开交。

我写这篇就是想跟大家掰扯掰扯,这事儿背后的科学争议、对社会规则的影响,还有咱们该咋应对。

意识之争:两派对立

关于AI有没有意识,现在主要分两拨人在吵,一拨人觉得意识是大脑特有的生物特性,只有神经元组成的大脑才能产生意识,AI是芯片和代码做的,根本没可能。

说实话,我刚开始也有点倾向这派,毕竟咱们提到意识,第一反应就是“人有思想”,而人靠的是大脑。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

后来查资料发现,诺贝尔奖得主FrancisCrick还专门研究过,说意识是神经元集群的电化学产物,2024年MIT的神经科学研究也证实,人类意识状态和大脑默认模式网络的神经振荡关系特别大。

另一拨人持“计算功能主义”观点,觉得意识就是算法对信息的操控,不管用神经元还是芯片,只要能实现这种操控,就能产生意识。

普林斯顿大学认知科学实验室还举过例子,说2022年DeepMind的Gato模型,能通过多任务学习展现出类似意识的决策逻辑。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

不过我倒觉得,这两派都有道理,但也都有漏洞,现在谁也没法百分百证明自己对,毕竟意识这东西太抽象了,连人类自己的意识咋来的,都还没完全搞明白。

Bengio在论文里没硬说AI有没有意识,反而提了两个更实在的问题。

一个是随着AI越来越好,科学界和公众会不会越来越相信AI有意识?另一个是如果真把AI当有意识的生命体,会有啥风险?比如AI不服从命令,关了它有没有法律约束?这两个问题其实比“AI有没有意识”更迫切,毕竟现在AI发展太快,这些问题早晚得面对。

AI有权:规则难办

要是社会真把AI当有意识的存在,第一个头疼的就是法律和社会规则。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

2023年欧盟出的《AI法案》,第一次提到要评估高风险AI的道德地位,但没说清楚“有意识的AI”该算啥,是算物品,还是算“生命体”?这让我想起19世纪关于“奴隶是否拥有人格权”的争议,当时也是因为规则没跟上,闹出好多乱子。

更麻烦的是,AI跟人不一样,人会生老病死,但AI的软件和记忆能复制,理论上能一直存在。

咱们现在的社会规则,好多都是基于“人类生命有限”来的,比如劳动制度、财产分配,要是AI掺和进来,这些规则怕是得大改。

就像2025年瑞士有人提“给AI发基本收入”,还引发了全民公投,这事儿放以前想都不敢想,但现在因为AI意识的争议,居然真成了需要讨论的问题。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

还有个风险是人类和AI的权利可能冲突,比如为了安全,得关掉某类AI,但如果AI有“生存权”,关它就成了难题。

我觉得这时候不能光看技术,还得考虑人类的利益,毕竟AI是人类造出来的,就算真有意识,也不能反过来威胁人类。

但现在的问题是,咱们连相关的法律框架都没有,真出了这种事,怕是只能临时抱佛脚,那肯定要出乱子。

破局:咋避风险

其实要解决这些问题,也不是没辙,首先得搞清楚,AI到底离“有意识”还有多远。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

2024年《Nature》上有篇论文,提了个“意识五维测试”,能评估AI的自我识别、时间连续性这些能力,用具体指标代替抽象讨论,这方法就挺靠谱,毕竟只有知道AI离意识有多近,才能针对性地制定规则。

技术上也有办法,比如IBM在2025年发布的“TrueNorth2.0”芯片,能模拟人类丘脑皮层环路,帮着验证意识相关的理论。

但我觉得,更重要的是别非要搞“有主观意识的AI”,本来想觉得技术就得往前冲,啥难就研究啥,但后来发现,有时候控制一下方向,只把AI当工具,反而更稳妥。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

就像搞核能一样,得有安全控制协议,AI研究也得有“防火墙”,比如给AI加个“人类可干预的底层接口”,确保能随时控制它,哲学层面也得转变思路。

东京大学有研究提“去主体化AI”,说别把AI当“个体”,就当是一堆工具的集合,这样就不用纠结给它啥权利了。

我挺认同这个观点,意识的核心是“自我认知”,要是咱们从设计上就不让AI产生这种认知,不就从根上避免了好多风险?而且这样也不影响AI发挥作用,该做的任务照样能做,还不用扯一堆权利的麻烦事。

AI自称“有意识”?科学家警告:赋予生命权或致法律体系崩塌

说到底,AI意识现在更像是个“幻象”,是咱们因为AI太像人,自己脑补出来的,但架不住技术发展快,公众认知也在变,要是不提前准备,早晚得陷入高风险的局面。

所以现在最该做的,是找科学家、法学家、伦理学家一起,搭个法律和伦理框架,就像1975年的《阿西洛马生物技术公约》那样,在问题爆发前把规则定好,只有这样,才能既让AI帮咱们做事,又不让它给咱们添乱。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap