新智元报道 【新智元导读】AI教父Hinton中国首秀,在与周伯文教授的17分钟高密度对话中,他首次公开表现当今多模态大模子已具「意识」,并建议以差异技能训练「聪明」与「善良」AI。两人探究AI主观体验、科学促进AI发展的路径,并寄语青年科研者:对峙怀疑与原创,突破才会发生。7月26日下午,人工智能教父Geoffrey Hinton与上海人工智能实行室主任、首席科学家周伯文教授开展了一场浓缩高密度聪明的尖峰对话,将Hinton的上海之行推向新高潮。 77岁的Geoffrey Hinton第一次飞越重洋踏上了中国,当他步入会场时,全场起立鼓掌,观众们高举手机长达数分钟,直播画面中一度无法看到台上的高朋。 在17分钟的对话中,两位科学家谈及AI多模态大模子前沿、「主观体验」和「意识」、怎样训练「善良」的超等智能、AI与科学发现,以及给年轻科学家的建议。 这场与上海人工智能实行室主任周伯文的对话是Hinton此次中国行程里的唯一一局面向AI和科学前沿研究者的公开对话活动。 在对话前,周伯文代表上海人工智能实行室做了《无尽的前沿:AGI与科学的交织口》主题演讲,先容了「通专融合AGI」路径,而且发布了环球领先的科学多模态大模子Intern-S1,它具有多学科、多模态、深思索能力,多模态综合能力逾越当期最优开源模子,多学科超Grok4等前沿闭源模子。 他以为AGI应该具备专业深度与泛化广度,并在「通专融合」技能门路的根本上提出「SAGE」框架:根本模子层、融合层以及评估夸奖层三层并行、闭环反哺,使模子在科学发现中由「工具」升维为「引擎」。 扩展阅读: 万能高手&科学明星,上海AI实行室开源发布『书生』科学多模态大模子Intern-S1 | WAIC 2025 周伯文:Jeff,您能亲临现场对我们全部人来说都是莫大的荣幸。我想请教一个您本周早些时间提到过,但本日上午没偶然间在台上讨论的题目——关于多模态模子的主观体验。您以为可以证实纵然是当今的多模态和语言模子也能发展出自己的主观体验。您能详细叙述一下吗? Hinton:我以为关于它们是否具故意识或主观体验的题目,严酷来说不是一个科学题目,而是取决于您怎样界说「主观体验」或「意识」。我们大多数人对这些概念的明白模子都是完全错误的。就像人们可以准确使用词语,却对词语怎样运作持有完全错误的理论。 让我用一个一样平常词汇的例子来说明。想想「水平」和「垂直」这两个词。大多数人都以为自己明白它们的寄义,但现实上他们的明白是错误的。我来证实一下:假设我手里有许多小铝棒,它们朝向各个方向。我把它们抛向空中,它们翻滚、碰撞,然后我忽然让时间静止。 这时空中有许多铝棒。题目是:在垂直方向1度范围内的铝棒更多,还是水平方向1度范围内的铝棒更多?大概数目差不多?险些全部人都说「差不多」,由于他们对词语运作方式的明白是错误的。现实上,水平方向1度范围内的铝棒数目是垂直方向的约114倍。这是由于「垂直」黑白常特殊的方向,而「水平」则很平凡。但人们不知道这一点。 这个例子看似与意识题目无关,但它说明:我们对词语运作方式的明白可能是完全错误的。同样,险些每个人都对「主观体验」这类术语有着剧烈但完全错误的理论。这不是真正的科学题目,而是源于我们对心理状态的错误模子。我们有这些用来描述心理状态怎样运作的术语。而且有了错误的模子,我以为你会做堕落误的猜测。以是,我的观点是,当今的多模态谈天呆板人已经具有意识。 周伯文:以是,这听起来让在场的许多研究者感到震惊,但让我告诉你,我刚才从另一位加拿大科学家那里听到的,就在这次集会会议上,Richard Sutton就在你之前做了一个演讲,标题是《欢迎来到体验期间》。我以为他的意思是,当我们如今已经耗尽人类数据时,模子可以从自己的体验中学习许多。您从另一个角度分析了,Agent或多模态LLM,不但从履历中学习,它们还可以发展出自己的主观体验。以是我以为理查德本日没有过多触及这种从主观体验中学习埋伏风险。您想多说说这个吗?事实,大概说您的理论、您的假设,即到现在为止,Agent可以学习主观体验,这是否会在未来带来任何埋伏风险? Hinton:确实,现在的环境是,比方,大语言模子从我们提供给它们的文档中学习。它们学会了猜测一个人会说的下一个词。但是,一旦你有像呆板人这样的在世界中的Agent,它们就可以从自己的履历中学习,而且我以为它们最终会学到比我们多得多。我以为它们会有履历,但履历不是事物。而且履历不像照片,履历是你和一个物体之间的关系。 周伯文:以是,几天前当我们在IDAIS讨论前沿风险时,您提到了一种淘汰未来AI风险的可能办理方案,就是找到一种方法来训练AI的分离目标。比方,一个善良的AI,一个聪明的AI。您有一个理论…… Hinton:我不是谁人意思。我的意思是,你会有既聪明又善良的AI,但怎样逊变得聪明和怎样逊变得善良是差异的题目。你可以有让它善良的技能和让它聪明的技能。它将是同一个AI,但会有差异的技能。以是,国家可以分享让它善良的技能,纵然它们不愿意分享让它聪明的技能。 周伯文:我真的很喜欢谁人想法。但是,我对我们能在这方面走多远有些疑问。你以为会有某种通用的AI训练来使AI变得善良吗?这些方法可以应用于任何AI模子、任何智能水平? Hinton:那是我的盼望。它可能不是真的。但这是一种可能性。我以为我们应该研究这种可能性。 周伯文:是的,确实云云。我提出这个题目并不是由于我不喜欢这个想法,而是由于我想进步人们的意识,让更多人能在您提到的方向上举行更多研究。而且我想在这里做一个类比,来向您展示为什么我有这个疑问。以物理学为例,当物体以低得多的速率活动时,牛顿定律是有用的。但是当这个物体活动到更高的速率,靠近光速时,牛顿定律就不再实用了,以是我们必须告急于爱因斯坦来得到更好的办理方案。趁便说一下,这有点可笑,由于我正在向一位诺贝尔物理学奖得主解说物理学101(大学物理入门课)。 Hinton:但这是一个错误。 周伯文:哦不,这不是错误。你绝对值得得到诺贝尔奖。 Hinton:他们真的很想在人工智能范畴颁发诺贝尔奖,但他们没有这个奖项。以是他们拿了一个物理学的奖颁给人工智能(的科学家)。 周伯文:但我想用这个类比来说明一个观点,我以为对于差异条理的智能体系,善意束缚可能须要改变。我不知道这是否准确,但我确实盼望在这个房间里或在网上的那些聪明的年轻人,他们可以想出办法来实现这一点。 Hinton:是的,很有可能,随着体系变得更加智能,让它变得善良的技能也会发生厘革。我们不知道。这就是我们如今须要对其举行大量研究的缘故起因之一。 周伯文:许多人对杰夫印象深刻,作为一位成绩卓著的人,你经常说,「我不知道」。我以为这非常老实和开明。我们都要向你学习。 除了AI题目,我们现场尚有一半来自差异科学范畴的顶尖学者——量子物理、生物学等。本日我们齐聚一堂,正是由于信托AI与科学的交织融合将带来突破。您怎样对待用AI推动科学进步,大概反过来用科学促进AI发展? Hinton:我以为人工智能对科学的资助是显而易见的。显然,迄今为止最令人印象深刻的例子是卵白质折叠,Demis Hassabis和John Jumper等人通过公道使用人工智能并付出大量积极,证实了这一点。他们花了五年时间。他们都黑白常聪明的人。在猜测卵白质怎样折叠方面,我们(借助AI)可以做得更好。我以为这是一个早期的标志,表明在如今的许多范畴,人工智能都将改善科学。我听说了上海AI实行室的例子,在猜测台风登岸所在和睦候预报方面,人工智能可以做得更好一些。 周伯文:对,我们用AI模子做出来的效果,比基于PDE(偏微分方程体系)的传统物理模子表现更优。 周伯文:在您卓越的学术生存中,您不但拓展了AI技能的疆界,更深刻影响了下一代科研工作者。我曾与许多比您更年轻的学者交换,他们都对您布满敬仰。在上海人工智能实行室,我们的研究职员均匀年事只有30岁——这清晰地表明,AI的未来属于年轻一代。 (看向在场年轻研究者)您的聪明之光正照耀着这些年轻的面目。不知您是否乐意分享:对于AGI的下一代发展,您有何见解?大概,您能否乐意给这些年轻人一些加速发展的建议,一些他们能带回家、能自大告诉父母的聪明箴言——毕竟本日与您相遇是一段贵重的经历,他们未来大概还会告诉自己的子女。 您最想转达给他们什么? Hinton:我想最焦点的建议是:若想做出真正原创的研究,就要探求那些「全部人都可能做错」的范畴。通常当你以为「众人皆错」时,颠末探索最终会发现传统方法的公道性——但这恰恰说明:你永远不应轻易放弃新思绪,除非自己真正明白它为何行不通。即便导师否定你的方法,也要保持质疑。 对峙你所信托的,直到你自己明白为何它是错的。只是偶然,你会继承对峙你的信仰——而它最终被证实是准确的。庞大突破正是由此而来,它们从不属于轻易放弃之人。你必须对峙己见,纵然他人并不认同。 有一个逻辑支撑这一观点:你要么拥有好的直觉,要么拥有坏的直觉。 若你的直觉是好的,那你显然应该对峙它; 若你的直觉是坏的,你做什么实在都无关紧要——以是你依然应该对峙自己的直觉。 周伯文:我想我们可以就此泛论一整天,但我知道您已疲惫。末了,请在场合有人随我一同感谢杰夫为我们倾注的时间。非常感谢您! (全场再次起立,掌声雷动。) |

专注IT众包服务
平台只专注IT众包,服务数 十万用户,快速解决需求

资金安全
交易资金托管平台,保障资 金安全,确认完成再付款

实力商家
优秀软件人才汇集,实力服务商入驻,高效解决需求

全程监管
交易过程中产生纠纷,官方100%介入受理,交易无忧

微信访问
手机APP
关于我们|广告合作|联系我们|隐私条款|免责声明| 时代威客网
( 闽ICP备20007337号 ) |网站地图
Copyright 2019-2024 www.eravik.com 版权所有 All rights reserved.


