人工智能已经成为当今最热门的话题之一,然而很多人仍然觉得它遥不可及,事实上它早已悄然融入我们的生活,默默为我们的衣食住行提供助力。这种既远又近的感觉,...
2025-10-28 1
人工智能已经成为当今最热门的话题之一,然而很多人仍然觉得它遥不可及,事实上它早已悄然融入我们的生活,默默为我们的衣食住行提供助力。这种既远又近的感觉,恰恰是人工智能最特别的地方。
中央电视台·央视频特别节目《AI1001课》与中信出版集团共同邀约到国内外两位人工智能领域的知名专家学者:阿里云创始人王坚教授和《大语言模型》作者特伦斯·谢诺夫斯基教授,与我们共同走进人工智能的世界,看看它如何影响当下塑造未来。

大语言模型、三体与平权
主持人:谈到人工智能,其实很多人最开始认识到它,应该是从一些科幻电影或者一些科幻小说当中。想问问王博士有没有让您记忆深刻的科幻电影或者科幻小说。
王坚:可能大家比较熟悉的就是《黑客帝国》。如果你记不得它是人工智能,但这个电影里边肯定有个画面大家不会忘掉,就是一串像代码一样的字符往下掉。这是那个时代最科幻的,甚至把那个时代的颜色也体现出来了——绿绿的,白白的,那样就是未来。所有跟绿色有关都有自带一种科技感和未来感。
最近几年大家觉得比较科幻的就是《三体》,它反映了人们对一些今天还未知的、不存在的东西的追求。但实际上今天人工智能已经开始深入到我们的生活,它不再是一个未来式的东西。尤其是今年年初DeepSeek给我们带来巨大的惊喜。这半年以来有非常非常多的人工智能应用上线。
除此之外,很多人都知道芯片是人工智能最基本的东西,如果我们没有芯片,可能人工智能就没法运作。可是很少人知道另外一句话:在如今,如果没有人工智能,芯片也造不出来。
所以如今芯片的复杂度已经到了没有人工智能做不了芯片。
如果去看谷歌这些企业就发现,他们花了很多精力在讲人工智能怎么帮助我们设计下一代芯片。所以其实人类发展到今天,我们碰到的事情复杂度已经非常非常大了,如果没有一些更加先进的工具来帮助我们,事实上我们很难做一些事情。
另外比如去年的这个巴黎奥运会,我当时跟奥委会开会聊奥林匹克的人工智能的议程的时候,我跟他们说过这样一句话:其实观众是没有真正看到奥运会精彩的镜头的,观众只看到了导演认为的精彩的镜头,其实大部分的镜头可能从来没人看过。所以去年奥运会大家看到了很多因为有了人工智能才见到的精彩镜头。所以人工智能其实比我们想象的有更多应用场景。
主持人:可能在过去很多科学的术语跟老百姓其实没有太多的关系,但现在人工智能时代来临之后,跟人工智能有关的一些术语好像我们必须也要知道一下。在过去的一年的时间里面,媒体上不断地出现各种各样跟人工智能相关的词语,比如像云计算、深度学习、神经网络、大语言模型。您能不能快速地帮我们扫扫盲。
王坚:第一个最关键的问题就是计算和智能的关系,人工智能是离不开计算的。云计算是今天为人工智能提供计算的最好的方式。联合国去年写过报告,认为云计算现在不能够让所有人平权地去访问,依旧是我们打造一个更具包容性的人工智能生态最大的障碍。
所以我想直接一点,如果没有今天的云计算,可能就不会有今天的人工智能,尽管是两个不同的技术,但是它们之间真是唇齿相依的关系。
第二件事情,我想先说大语言模型。大语言模型是普通老百姓真正认识到人工智能就在身边,是触手可及的一个非常重要的机会。因为大语言模型你每天都可以用。可以理解成今天的人工智能就是以大语言模型为代表。
人工智能有很长的过去,只有很短的历史,大语言模型就是今天的人工智能。大语言模型也让今天的人工智能跟以前的人工智能划了一条分水岭,是彻底不一样了。
当然中间有两个非常重要的过渡。在技术发展的历史上,那大语言模型依赖于神经网络的架构。通俗来讲,就是受大脑启发出来的东西那就是神经网络本身的东西。中间又有一个很重要的问题是怎么能够把数据很好地应用,那深度学习就出来了。
所以从这个角度,深度学习和神经网络是建立在云计算的基础上,为大语言模型做最重要的一个技术的储备。在过去用神经网络和深度学习其实酝酿了不同的技术的,但是很多没有走到我们今天的大语言模型。所以这也是为什么大语言模型是有它独立存在的条件。
如果再总结一下,云计算是所有东西的基础,像基础设施一样的存在,神经网络和深度学习是一个非常重要的基础的方法,这个方法可能可以促成很多不同的新的东西诞生,但是其中最重要一个东西的诞生就是我们今天说的人工智能,叫大语言模型。但是大语言模型又不是人工智能的全部的表现形式。
如果用汽车做个类比,大语言模型就是人工智能的引擎,至于你是造个跑车还是轿车,那大家都有各自的方法。
人工智能在今年破圈,或者是说在最近几年里面集中式的爆发,最重要是它真的做到了足够好,它真的实现了通过了图灵测试。
所以我觉得这是所有的技术的一个最基本的要求,就是你能不能好到一定程度真的能帮助人,而不是只是好到能够跟人炫耀一下我有这个技术。
这背后的事实上有个很重要的契机是互联网的发展,大语言模型是把整个互联网装到了一个模型里面。过去我们做搜索也是在互联网上找东西,在过去几十年互联网积累的上面所有的东西被大语言模型装到了一个口袋里,使得我们今天有机会真的能够看到一个像人类智能一样东西的出现。所以我想这可能是它发展背后的一个非常非常重要的原因。
主持人:王博士,您现在所在的之江实验室发射了颗智能卫星,在太空中进行一个组网要把算力布置在太空当中,这个项目还有一个非常动听的名字叫三体计算星座。让人不禁联想到刘慈欣的科幻小说。
当我们还在关注人工智能如何改善我们陆地生活的时候,你们怎么想到把人工智能送上天?那么这件事情的意义是什么?
王坚:这其实是个很大的话题,一是与我们对人工智能的认知有关系,我自己觉得人类对太空的探索一定是我们很大一个窗口,像之江实验室是做前沿研究的实验室,在今天对地面很多场景的应用,人工智能已经到了一个相当完善的境界了,我是非常有信心的,但是我们要问一个问题是下面的探索在哪里?那我觉得太空就是一个非常好的地方。
我想说一个最简单的数据,尽管我们了解地球好像很多了,但事实上我们对地球是没那么了解。来举个最简单例子,事实上我们今天有那么多遥感卫星在太空,大概只有不到百分之二十的数据被传回到地面,非常地限制我们对地球本身的了解。
大家都知道,你不从外太空了解地球那就是盲人摸象。当你发现只有不到20%的数据能传回来,那就说明什么,说明天上没有足够的算力。
过去大家为什么觉得这件事情还没那么迫切,因为过去算力到了天上也没有更好的手段能真的了解地球做个模型出来。那人工智能恰巧在这个时候也相对成熟了,所以我想把算力搞到天上,把模型搞到天上,就变成了一个非常直接的命题。
在国际上也有一个非常好的想法,把它叫做地球智能。我们对地球的了解也到了另外一个水平上,不再只是我们拍几张地球照片。今天如果不把在太空的卫星互通互联起来,是没有办法形成我们要的算力规模的。
所以中间有一个必要的过程就是太空中卫星的互通互联,但这个也是今天面临的非常窘迫的现状——现在天上有那么多卫星,但卫星之间是没有关系的,它只能单一跟地面进行通讯,甚至这些卫星到了地面也互相没有关系,这样的话就受到了大大限制。

所以三体计算星座就是把算力送到太空,能够做到让卫星互通互联,最后把人工智能带到太空,使得我们对地球的了解有一个全面支持可持续的发展。但是再往前走一步,其实地球上的所有表象也不是地球自己决定的,事实上是由太阳决定,所以自然而然就会想到怎么了解太阳。那今天有科学家就在设想我们应该发射太阳人造卫星,是围绕着太阳转的。
可以放太阳人造卫星的地方,大概是距离太阳有一亿五千万公里,离地球也有一亿五千万公里。如果要传回数据来,技术上基本是不可行的。所以这个时候就需要完整的部署一个太空计算的系统。当然是人最后要走出地球到火星上去的,那就更加需要这个系统。
所以我想这样其实是让我们对技术的未来会更有信心,当然倒过来讲这样的技术尝试对推动我们本身的发展有非常大的作用。
主持人:那有多少卫星才算是可以把这个系统串起来呢?
王坚:作为一个实验室最基本的大概需要一千颗卫星,唯一的办法就是大家一起做,所以要创造一个新的机制才能做这样的创新,那么这个机制就反映在我们这个星座的名字上,叫三体。那么三体从科学的含义当然是来自牛顿的一个表达。在宇宙在太空里面。只有两个物体它们之间关系是有确定的,但有第三个物体的时候这个事就变得无限复杂。我们想做的是在这样一个环境下,我们真的能不能跟成百上千的企业合作去完成这样一件事情,所以我们就把它叫做三体。
所以这个计划看上去最后还是要所有人的力量加起来。我们在国际上讲的这句话的时候还是很打动别人的——我们想最后三体计算星座可以把每一颗卫星,分享给世界上的每一个人。
在这个轨道中的卫星,也许它并不是专门做这件事情的,但我们打上去的那几颗星是专门做这件事情,需要要借助更多的卫星来组成这个网络。而且卫星恨不得你就是一个国家才有一颗,或者大公司有一颗,但我们所以我们希望以后每一个个体都可以在这样的一个计划里,这样整个社会的创造力是会被大大地激发出来。
所以今天我们谈到人工智能的时候我们经常跟另外一个词叫“平权”放在一起。其实它是一个分享的过程 如果我们不是站在自己的角度而是站在社会创造力的角度,我们在这个地球上的每一个人的创造力才能被充分地发挥出来,所以我想“三体”这个命名也有这个含义。
如何防止人工智能毁灭人类?“母爱”
主持人:接下来我们进一步深度学习就要请出我们的另一位嘉宾。让我们欢迎美国国家科学院、国家工程院、国家医学院以及艺术与科学学院的四院院士,索尔克研究所弗朗西斯·克里克讲席教授、计算神经生物学实验室主任特伦斯·谢诺夫斯基教授。
两位身上有很多共通的地方,第一个两位都是跨学科的破界的专家:王教授是心理学的教授,特伦斯一位是脑神经科学的教授,但是他们都不约而同的在人工智能的领域实现了重大的突破,而且他们都是大型的科研实验室的负责人。在努力创新的路上他们也都曾经在质疑声中咬牙坚持,最终用他们的实力赢得认可。接下来我们与两位一起聊一聊这些同频共振背后的这些故事。
谢诺夫斯基教授,您的专业背景是神经科学,那么您如何看待脑科学与人工智能的融合?我们对大脑的认知比如对情绪和意识这类概念的理解,又能如何帮助我们推动人工智能的发展。
谢诺夫斯基:我们希望理解人类智能,而情绪显然在其中发挥着作用,但并非所有人类情绪都是积极的,比如愤怒或者嫉妒。要知道我们未必希望在人工智能身上复制人类所有的特质,无论是好的还是坏的。杰弗里・辛顿是我多年的好友兼合作伙伴,他最近提出了一个问题是我们该如何防止人工智能毁灭人类,他建议我们可以将“母爱”这一情感融入人工智能。核心思路是婴儿出生后母亲会将注意力集中在婴儿身上,而这种情感源于激素调节与情绪作用。他认为这种情感是非常值得融入人工智能的积极情绪。总体而言“人工智能”这一概念的诞生很大程度上正是受到了人类大脑结构的启发。
主持人:王博士的背景是心理学,那这心理学跟人工智能它又是怎么结合到一块的?
王坚:其实心理学跟大脑也有很多关系,包括大家熟悉的一些基本概念,比如说像工作记忆,其实都是跟心理学有关系。所以我经常讲心理学应该是人工智能的物理学,关于人工智能一些最基本的东西我觉得其实都是从心理学过来。
在达特茅斯开会的学者里边有好几位是心理学家,所以从第一天他们之间的关系就变得密不可分。实际上是不同学科的科学家共同创造出一个新的一个学科。事实上我一致认为很难讲人工智能是不是一个学科,而更像是不同的科学家都在创造的新领域。谢诺夫斯基这样的教授来,其实也反映了这样一点。
算法、算力与数据
主持人:我们一谈到人工智能就会谈到“三驾马车”:算法、算力还有数据。所以我们今天先从这个算法来聊一聊。谢诺夫斯基教授作为神经网络领域的先驱,您认为 Transformer 架构为何能相较传统方法具备如此显著的优势呢?
谢诺夫斯基:首先 Transformer是深度学习的一种变体,它属于前馈神经网络。它的目标非常简单,就是通过海量文本数据训练实现一个核心功能预测句子中的下一个词。
没错,就是预测 “下一个词”。这种训练方式被称为自监督学习。现在这个架构还额外增加了一个模块。生物进化中也常出现这种情况,以某种动物的基础大脑为核心,在此之上新增功能模块,而非完全抛弃原有结构从零开始。
Transformer 新增的这个模块就是自注意力机制,它是前馈链路中的重要组成部分,作用是在句子的不同词语之间建立关联,包括词语间的联系、词语本身的含义等。我认为这正是 Transformer 架构中真正关键的创新之处。
主持人:除了算法然后就是算力,为什么算力对人工智能这么重要?今天我们看到每个国家都要发展人工智能,而且他们只要说到提到人工智能就必提算力。为什么它这么重要的一件事?
王坚:它其实跟人工智能发展有关系。从今天我们有的以神经元受启发的这个方法来讲,其实刚才谢诺夫斯基介绍的点非常有意思。那个时候我读研究生二年级,其实我们用了一个教科书,我想谢诺夫斯基教授应该比较熟悉,我们叫PDP(并行分布式处理),讲并行计算。那里边讲的都是神经网络的东西,那个时候我们怎么在算节点上的权重,我们就是在用笔算。那个时候输出节点只有三个,中间的隐藏层只有两个节点,所以你基本上靠一支笔都可以算 ,规模很小。而且那时候也有程序,在DOS(磁盘操作系统)下面的程序。所以我想那个时候最重要的一件事情就是规模不够大。
这个规模什么时候可以大到一定程度,就是辛顿跟他的几个学生做 AlexNet 的时候。所以他们发表了那篇著名的文章,第一次把数据、算法跟算力放在一起了。但在那个时候的规模也还没有那么大,只是辛顿的学生亚历克斯在他自己的寝室里,在自己的电脑上插了两块GPU卡(显卡)。但对那时的做研究的来讲已经是一个很大的算力。
就像谢诺夫斯基讲到,当Transformer有了自注意力的机制的时候,这个模型对算力的需求是大大地增加,所以我想这中间就是很明显的证明了为什么算力那么重要。因为数据足够大了模型足够复杂了,模型对算力的需求就大大地增加了,我们又找到了GPU(显卡)这么一条路,所以就造成了我们今天事实上对算力的需求是成百万倍的增加。
主持人:有了算法有了算力,还有一个最重要的资产就是数据。在今天我们谈到数据的时候,几乎已经把它上升到经济学的生产资料范畴里了。其实王坚教授做的很多的事情,包括像城市大脑,它背后就必须要海量数据来支持。能不能给我们讲讲这个数据是怎么帮我们解决一些原来解决不了的问题?
王坚:其实数据就是一定是规模达到一定程度的时候,会发生质的变化。我觉得互联网是一个最典型的案例了。今天有大语言模型的存在,就是因为互联网上的文本的数据其实是足够大的。
第二点是今天大语言模型只谈到了文本的数据或者互联网上文本的数据,这为什么我们叫它是语言模型。那事实上在过去的几百年,科学研究也积累了很多数据。但很多数据不是文本。这部分事实上还像宝藏一样没有被触及。
所以可以想象今天人工智能涉及到的数据,也只是我们这个地球拥有数据的很少的一部分。这既说明了在模型这个角度还有很多的可能性,也说明它可能未来对算力的要求会更高。
对AI礼貌有用吗?大语言模型是否存在幻觉?
主持人:今天也想为大家介绍两本谢诺夫斯基先生的书:《深度学习》和《大语言模型》。我听到一个很有意思的故事,您当年写《深度学习》的时候花了大约2年时间才完成,但您最新一本关于《大语言模型》的书只用了1年就写完了。所以想请教您具体是如何利用人工智能提升写作效率的呢?

谢诺夫斯基:首先我将 ChatGPT 用作实例,换句话说我实际用它做实验进行测试。并且在书中每一项测试都配有专属的标注框,这样读者就能清楚区分哪些内容是 ChatGPT 的输出。哪些是我本人的表述。
除此之外我还做了一件比较特别的事,目前我还没在其他地方看到有人这么做:在每章的结尾我会把整章内容发给 ChatGPT,然后要求它为普通读者总结本章内容,结果非常出色。
说实话它总结得比我自己写得还要好,而且这本书的审稿人也反馈对他们而言这些总结比章节原文更容易理解。
主持人:我想有不少人正在使用 ChatGPT或其他类似的应用,您有没有什么关于提示词的使用技巧可以和大家分享一下呢?
谢诺夫斯基:当你与 ChatGPT 或者 DeepSeek或其他任何大型语言模型交互时,必须明确告诉它要扮演什么角色,因为这些模型已经吸收了各类作者、各行业从业者,比如医学、法律领域的角色特质。理论上你可以向它提出任何领域的问题,所以你得明确指令,比如你现在是全球顶尖的癌症医学专家,请针对这个医学问题给出解答。你需要清晰地说明自己的问题以及对回答的预期,越明确越好。
其次有一点让我特别意外,这是我从一篇文章里看到的,你会惊喜地发现如果你很礼貌,你得到的回复质量会高很多。这就像与人交流一样,如果你的态度生硬,在模型这个角度还有很多的可能性,得到的回应也会很敷衍。
但如果你能积极反馈表达认可,那对方给出的回应质量也会显著提升。
主持人:我很好奇您刚才提到的对人工智能保持礼貌这个技巧,因为有人会提出不同观点。有部分人觉得这样做会占用过多的 tokens(词元)反而可能影响回答质量。您觉得这里的权衡点在哪里?
谢诺夫斯基:我认为用占用过多 tokens来解释这个问题是不准确的。其实当你对人工智能表现礼貌时,本质上是激活了它更多的功能模块,就像人类大脑一样不同区域负责不同功能,而社交互动是人类大脑的重要功能之一,我们的前额叶皮层就负责处理人际交互相关的活动。
有意思的是研究发现大语言模型也存在类似人类前额叶皮层的功能模块,所以如果你希望像与人交流一样与人工智能互动,就需要用对待人的方式去对待它。
主持人:教授我还有一个关于大语言模型的问题。我知道大语言模型存在幻觉的情况,但您之前提出过一个观点,认为这种幻觉也可以被看作是一种创造力的体现,您能具体谈谈这一点吗?
谢诺夫斯基:首先我认为从某种意义上来说幻觉这个词用得并不恰当,它会给人错误的印象。并不是说大语言模型像服用了致幻药物一样产生了意识混乱,完全不是这样的。所谓的“幻觉输出”实际上逻辑性非常强,表述也很精准,同时还具备很强的创造性。
就像我之前说的你可以让它写一首诗,这首诗里会包含新颖的元素。顺便提一句现在很多作家也在借助它来辅助创作,如果它没有创造性,作家们就不会对它感兴趣了。
王坚:我和谢诺夫斯基的想法很接近。今天几乎所有在批评语言模型那些词,以前都是用在人的身上,这说明人也是有这些弱点,但人的弱点不是人不该有的东西,而只是他弱点。所以我一直觉得其实这个事情不值得大惊小怪。
另外如果这样的一个特性在人工智能上表现出来,事实上给了我们更多的机会去研究它。如果在人的身上可能还不太好研究,但是因为在这个人工智能上,我们有更多机会去了解它。尽管我不能完全赞同这个“幻觉”就是创造力,因为在心理学里面这是两个不同的事情。但是不管怎么样我觉得这是一个非常有意思的现象,我觉得至少是不值得担心的一个现象。
关于数据这件事情,我觉得非常有意思。谢诺夫斯基教授也在说数据质量的问题,可是我们还是要承认数据本身无所谓质量的好坏,可是数据最后的质量是人决定的,也是人决定了用什么样的数据去确认模型。
主持人:您认为大语言模型的未来发展方向是怎样的呢?
谢诺夫斯基:首先我觉得大语言模型在数据量和模型规模方面似乎正逐渐接近一个瓶颈。目前还不清楚单纯增大模型规模是否能让性能持续提升,或许让模型的覆盖范围更全面会更好。不过我们发现关键不在于数据量本身,而在于数据的质量。也就是说现在如果直接从网络上抓取数据会得到各种各样无关的内容,这些内容可能没什么帮助,甚至与人类价值观相悖,但如果对数据进行筛选,让数据更有针对性且更纯净,当然这需要投入大量精力,不过现在已有多家公司证明这样做不仅能让模型输出更好的结果,还能缩小模型规模。所以这才是我们需要努力的方向。
我们需要获取更高质量的数据,而且不仅需要覆盖全球的全面数据,还需要针对特定领域的专属数据,比如医学、法律等领域。就像人类有各领域的专家一样,未来我们也会有各领域的人工智能专家。
AI时代孩子应该学什么?
主持人:如果放在一个更长远的一个未来,当人工智能进一步的发展进入到我们生活的方方面面,我们的孩子以后怎么办?我们的孩子还需要学习具体的知识吗?未来我们应该怎么去培养我们的孩子,在人工智能无处不在的时代里他们应该具备什能力。
王坚:我觉得这个可能是一个今天没办法有准确答案的问题。首先孩子比我们学得快,孩子对这个问题怎么想可能是超出我们想象,甚至超过创造技术的这些人的想象。所以我觉得这个可能很难有一个很好的答案。
但我们还是可以回到一个最基本的面上去讨论。图灵曾经说过一句话,他就说人的大脑,加上一张纸、一支笔和一个橡皮擦,再加上一定的规则,就是一台通用机器。所以大家可以设想一下,其实我们的大脑如果没有一张纸、一支笔的话,其实我们的创造力是释放不出来的。今天我们有了人工智能,有了像大语言模型这样的东西,是另外意义上的一张纸一支笔,把我们人的创造力给释放出来。我们真正怎么把小孩的创造力给释放出来,可能就会变成一个非常重要的问题。
有了纸和笔以后,可能有的小孩字还是写歪的,有的字还是写潦草。有人能写出一篇很好的诗,可能有的人解一个很好的算术题。我想可能人工智能帮助我们也是从这个角度帮助,它不会让人变得更加一样,而会让创造力变得更加不一样,创造出不同的价值。
谢诺夫斯基:我想接着聊聊“多样性”这个概念。如果你观察整个生物学领域,就会发现没有两个人是完全相同的,你身体里也没有两个完全相同的细胞。生物学本质上是一门研究多样性的科学,而孩子们也具有很强的多样性。任何一个有两个孩子的家长都会意识到这一点。
每个学生使用人工智能的方式都会有所不同,我们不能用统一的模式去要求他们,必须给孩子足够的空间。他们天生好奇,会主动接触各种事物,像玩玩具一样探索,还拥有丰富的想象力,我认为人工智能本质上会为他们提供新的工具、新的与世界互动的方式,帮助他们产生更好的想法。
我举个例子,现在有一些国际象棋程序水平已经能达到人类顶尖棋手的级别,甚至能和国际象棋世界冠军抗衡。在我这一代最伟大的国际象棋冠军是一位成长于小镇的挪威人叫马格努斯・卡尔森。过去国际象棋大师通常在大城市的象棋俱乐部里对弈,那他是如何成为世界冠军的呢?他的方法是和国际象棋程序对弈。这确实这让国际象棋变得 “大众化” 了。也就是说你不必身处纽约、莫斯科或北京这样的大城市,也能通过与程序对弈提升棋艺。
现在这种情况也会发生在孩子们身上,他们会和人工智能互动探索,无论他们身处世界的哪个角落,不管是在这里还是在非洲。
王坚:谢诺夫斯基讲的是国际象棋其实很有意思的。其实中国下围棋的人很多了,对很多小孩他一生是没有机会跟九段的棋手下棋的,但是有了围棋的这个程序以后,他就会有机会跟一个九段的棋手下棋。

2017年5月在中国乌镇柯洁对战AlphaGo
所以这个其实帮助了人类很多东西,它的意义不是它比人下得好下得坏,而是它给所有的人创造出很多不同的机会,会让更多的小孩飞速进步。
从大语言模型到大型科学模型
主持人:那我们现在再回归到那个您两位科学家的身份以及你们现在正在带领的这个大型实验室的科研工作。比如说像在之江实验室,我们现在在做哪些跟人工智能相关的一些比较有意思前沿的研究呢?
王坚:我们看大语言模型其实要分成两部分,一个就是我们今天看到的大语言模型,另外一个是要它下面的作为支持大语言模型架构。这个架构今天可能大家比较熟悉的就是Transformer,但是不管怎么样它是个大语言模型,它的呈现效果就是用大量的文本。
那么之江实验室希望专注在怎么让人工智能技术能帮助科学发现,所以我们在做一个非常重要的事情,我把它叫做大型科学模型。
其中一个很重要的差别就是你能不能够用除了文本以外的科学数据,比如说光学观察、地学的数据,这些数据都不是传统意义上的文本。
我跟天文学家跟地学家讨论的时候,他们告诉我如果要读懂一篇天文学或者地学论文,你读不懂图的话,是读不懂这篇论文的。所以就说明我们在除了文本以外,还有非常多东西要做。
所以如何把科学数据能够放入我们今天大语言模型的框架下,这是一个非常大的挑战。
这个挑战如果从数据角度解读,就是怎么为科学数据做分词(tokenization)。这就是之江实验室目前非常关注的在大科学基础模型上真正帮助科学发现。
谢诺夫斯基:科学界正在经历一场变革,正如大家已经知道的,2024年的诺贝尔化学奖授予了利用人工智能解决某一难题的研究。这个难题是生物学家曾认为永远无法攻克的,那就是蛋白质折叠问题。

在你身体的每个细胞里都存在数千种不同的蛋白质,蛋白质的功能由其折叠形成的三维结构决定,而通过第一性原理来计算这种三维结构在计算层面上曾是不可行的。但可以通过利用已有的晶体结构数据训练一个网络,去预测新的蛋白质结构。
现在我们知道了每个物种中蛋白质的功能,还能直观看到它们的三维结构。例如现在设计药物不仅速度更快。准确性也更高,这都要归功于人工智能。未来几十年里这将对医学产生巨大影响,而这只是科学界众多案例中的一个。

人工智能正在切实改变人类利用现有理论解决实际问题的方式,这些问题的解决将在我们生活的方方面面提供帮助。
王坚:这个例子恰恰就是我讲的大科学模型的最基本的出发点,撇开对生物科学的贡献,这里面还有一个非常非常重要的贡献,就是怎么把蛋白质的数据能够很好地放到一个模型里面去,这是传统的文本模型很难完成的事情。
所以我想是不是能够有一个更加通用的,可以把科学的数据跟现在人工智能模型结合的方法。
这是一个非常大的挑战,而且它一旦跑通之后潜力是巨量的。
我跟几个天文学家合作,他们说过一句很有意思的话。因为我们经常讲“一张图胜过千言万语”他们后面加了一句话“一段光谱对胜过千万张图”。所以这光谱就是科学数据。
坚守科研初心,相信自己的直觉
主持人:我们还有一样东西要您看,这张照片大概是在三四十年前拍摄的吧?照片里还有杰弗里・辛顿。您还记得当时和辛顿教授在讨论什么内容吗?

谢诺夫斯基与辛顿
谢诺夫斯基:是的,这是我在哈佛医学院做博士后的时候,在我公寓门口拍的。具体到那个瞬间的对话我已经记不太清了,但我们当时正在一起研究一个叫 “约束满足”的课题。比如在视觉研究中图像不同部分的拼接方式是存在约束条件的,就像人脸的轮廓,这在研究中被称为 “图像分割”。
我们当时正尝试通过手动设计小型神经网络来解决这类问题,那就是我们研究的起点,也是思考视觉问题的核心开端—思考视觉系统是如何工作的。
我们对视觉系统的工作原理其实毫无头绪,因为这一切都是在潜意识层面发生的,所以这就需要一种全新的研究方法,而这也为现代人工智能的发展奠定了基础,让我们开始从大脑内部寻找灵感。
主持人:您和辛顿教授在神经网络领域的合作经历过一段被质疑的时期,您个人是如何度过那个阶段的呢?
谢诺夫斯基:其实从某种意义上来说我们当时是在开辟一个新的研究方向,这也印证了年轻研究者的价值。当时人工智能领域的主流观点是采用逻辑符号和规则,但我们提出不应该这样,我们必须参考人类大脑的组织方式。大脑具有高度并行的结构,神经元之间存在大量连接,而其核心关键就在于“学习”机制。当时我们吸引了很多年轻研究者加入,所以我们是一股从基层崛起的力量。
我打个比方,我们就像恐龙脚下那些不起眼的小型哺乳动物。王坚教授提到过在加州大学圣地亚哥分校开展的并行分布式处理研究,顺便说一句,辛顿当时就在那里做博士后,我是在他组织的一个小型研讨会上认识他的。
所以科学的进步往往就是这样从一小群有着不同想法的研究者开始,朝着独特的方向探索。
王坚:其实就在几周前我还在中国见到了辛顿,我和他聊起了那段时期的研究,他对当时的情况还有书中提到的那段岁月依然记得非常清楚,那段时光真的太难忘了,感谢您写的《深度学习》这本书,它是我早期学术生涯的重要启蒙。
其实我一直认为,坚持你相信的就是要专注,相信你坚持的就是要有耐心。而这个耐心如果回到人工智能的话,就像谢诺夫斯基讲的。我经常跟别人开玩笑说你要做一件事情,如果你自己没想好你能不能坚持至少干十年的话,那我的建议就是你不要干这些。那特别是对创新可能是一个更加基本的道理了。
几个星期以前碰见辛顿我就跟他讲起发生的事情,他说的第一句话就是:你看,当年谈的这些事情今天都发生了,可是这已经是过去了。所以我就觉得十年都是一个很短的数字,所以才会有这个坚持你相信的,相信你坚持的。
主持人:那么谢诺夫斯基教授,您作为脑科学家能否教教我们该如何训练自己的大脑,从而更好地理解或实践深度学习呢?
谢诺夫斯基教授:我认为教育领域将成为人工智能最重要的应用方向。我们知道帮助孩子学习的最佳方式是与优秀的教育者进行一对一互动,这类教育者既专业又了解孩子的特点。但目前的课堂上往往有几十个能力各异的孩子,是很难针对每个孩子提供个性化指导。不过如果我们为每个孩子配备人工智能辅导老师,就能极大地助力他们的学习,而且这种模式未来会在全球范围内普及,所以我认为这就是教育的未来方向。
为此我也尽了自己的努力,我在 Coursera 平台上开设了一门名为《学会如何学习》的在线课程,全球已有200多个国家的600万人参与了这门课程,学员年龄从10岁到90岁不等。这门课程的设计基于我们对人类大脑的认知以及提升学习能力的方法,而且这是一门免费的在线课程。我的合作伙伴芭芭拉・奥克利是世界级的教育专家,而我则在幕后负责解释她给出的学习建议背后涉及的大脑运作机制,也就是大脑如何处理这些学习方法,并利用我们对大脑的认知帮助人们成为更优秀的学习者。
主持人:我最后还有一个问题要给到两位,关于给我们的年轻人的一些建议,如何在这个人工智能时代能够保持不可替代的竞争力和创造力,我们的年轻人需要拥有那些思维或者能力?
王坚:我觉得用深度学习的一句话,我觉得我们还是需要深度的思考,今天我们所有的面临的技术好像让我们就不需要思考了,但事实上深度思考还是非常重要的。
我记得互联网刚出来的时候《大西洋月刊》曾经写过一篇文章,说互联网的出现会不会让人变得更加浅薄?事实上我今天不好说有没有这个答案,但是我想这样的问题会一直伴随着我们技术的发展,所以我想我们还是应该更加深入地思考问题。更加有批判性。批判性思维是最重要。
谢诺夫斯基:我的建议是相信自己的直觉,当专家告诉你某件事不可能时,不要轻易相信。因为在20世纪80年代我们就处于这样的境地,当时也有人说我们正在尝试的事情是不可能实现的。我想王博士也提到过,那就是坚持不懈。像 ChatGPT 这样看似一夜成功的成果,背后其实是四十年的不懈努力,所以坚持是成功的关键。
主持人:在我们节目快要结束的时候,教授您能为观众推荐几本关于人工智能的好书吗?
谢诺夫斯基:其实我非常推荐我自己写的书,现在市面上的人工智能相关书籍非常多,有很多实用类书籍教大家怎么使用 ChatGPT ,这类书现在很受欢迎。但如果是刚入门的学生或者想了解现代人工智能起源历史的人,我认为更重要的书籍是我写的《深度学习》。这本书出版于2018年,虽然听起来已经过去很久了,但实际上现在仍在重印。
另外还有一本我强烈推荐的书。大型语言模型其实只是模拟大脑顶部大脑皮层的模型,而大脑还有数百个其他功能区域,如果你们对大脑其他部分的工作原理感兴趣,我强烈推荐我和帕特・邱吉尔合著的《计算大脑》。这本书出版于1982年,它原本是为普通读者写的,向大家解释大脑的工作方式,也面向工程师群体,同时还介绍了当时新兴的学习算法。我们将这些算法引入了神经科学领域,所以这本书会是一个很好的起点。
王坚:我建议大家趁这个时候去读一些最基础的心理学的大学教科书。因为有些最基本的道理其实在教科书里面都说的很清晰,这样少了我们很多无谓的一些争论。
(来源:中信出版社)
相关文章
人工智能已经成为当今最热门的话题之一,然而很多人仍然觉得它遥不可及,事实上它早已悄然融入我们的生活,默默为我们的衣食住行提供助力。这种既远又近的感觉,...
2025-10-28 1
人们以为推动AI革命的,是芯片、模型和资本。但在硅谷投资人的眼里,真正的助力其实是人类的懒惰。不是天才在驱动AI,而是懒人。因为一切能让人少动一点手、...
2025-10-28 1
【来源:云南网】近日,第22届全国大学生信息安全与对抗技术竞赛(ISCC)“智能安全赛”在西南林业大学举办。来自全国313所高校的1596支队伍、共计...
2025-10-28 1
亲,这款游戏可以开挂的,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-10-28 9
您好:这款游戏可以开挂,确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到-人的牌一样。所以很多小伙伴就怀疑这...
2025-10-28 11
奢侈品女包十大名牌排行榜 1、十大品牌女包排名爱马仕LV蔻驰迪奥普拉达葆蝶家Gucci博柏利排行榜,品牌排行榜芬迪排行榜,品牌排行榜香奈儿爱马仕爱马仕...
2025-10-28 49
您好:这款游戏是可以开挂的,软件加微信【添加图中微信】确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到其他人...
2025-10-28 16
您好:这款游戏是可以开挂的,软件加微信【添加图中微信】确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到其他人...
2025-10-28 5
发表评论