“ AI Godfather” Hinton的最新观点:如何训练“好”

- 编辑:必赢唯一官方网站 -

“ AI Godfather” Hinton的最新观点:如何训练“好”

充满了与周·鲍恩(Zhou Bowen)/IT Times记者Sun Yonghui/Hao Junhui对话的文字,太阳如何训练“善良”的超级智慧?年轻科学家应该如何进步? 7月26日下午,在2025年世界人工智能会议(WAIC 2025)的“科学边界全体会议”上,Turing Award和2024年的2024年诺贝尔奖获得者Geoffrey Hinton在Geoffrey Hinton举行了尖峰,与Zhou Bowen,董事和科学的上海手工智能Intelligence Laboratory进行了交谈。在想法的17分钟碰撞中,有许多“干货”。这是现年77岁的欣顿(Hinton)到达中国,也是2025年Waic最受欢迎的客人之一。Hinton被称为“ AI的教父”和“深入研究之父”。 2012年9月,他和他的学生是Ilia(Open AI的前首席科学家),而ARCS共同出版了Pappel“使用深层卷积神经网络进行Imagenet Image分类”,这是主要理论,这是一个主要理论一直是人工智能繁荣的必不可少的。 “多模式聊天机器人现在有意识。”在科学发现的过程中,传统的单模式检查常常发现很难完全获得复杂的现象,尤其是在对跨学科领域的深入探索中。在会议上,上海人工智能实验室(上海AI实验室)释放了“学者”科学多模型Intern-S1的来源。 Intern-S1包括学术大型模型家族的好处,实现了同一模型中平衡的语言发展和多模式性能,并增强了专业知识,专注于增强科学能力,这是一般模型的首个开源代码,它结合了专业科学能力。在谈论多模式大型模型时,欣顿认为多模式聊天机器人现在有意识。周·鲍恩(Zhou Bowen):你认为多模式和语言吗今天的模型可以发展自己的主观体验吗?欣顿:我认为关于他们有意识或主观经验的问题并不是严格的科学问题,而是取决于您如何指定“主观体验”或“意识”。我们大多数人都理解这些概念是完全错误的。因为人们可以正确使用单词,但是他们对跑词的理解是完全错误的。让我给您一个阳光日的词汇量的实例。考虑“水平”和“垂直”一词。大多数人认为已经理解它的含义,但实际上他们的理解是错误的。假设我手里有很多小铝杆,它们会朝各个方向前进。我把它们扔在空中,他们滚动并跑了,然后我突然让时间站了起来。扩展全文 在这个时空和时间上有许多铝棒。问题是:在垂直方向或mo中,铝杆越多。铝杆在水平方向上处于1度?还是相同的数字?几乎每个人都说“几乎”是因为他们对单词的工作方式的理解。实际上,在垂直方向上,沿水平方向的铝棒数约为114倍。这是因为“垂直”是一个非常特殊的方向,而“水平”非常普通。 这个例子似乎与意识的问题无关,但它表明我们对单词如何工作的理解是完全错误的。同样,几乎每个人都对诸如“主观经验”之类的术语都有强烈而完全的误解。这不是一个真正的科学问题,但它来自我们对心理状态的误解,这将建立错误的模型并做出错误的预测。 因此,我的观点是多模式聊天机器人现在有意识。 如何制作AI? “人们和人工智能之间的当前关系就像抚养一个可爱的小老虎幼崽 - 很容易克服人们成长的人。为了生存,摧毁它或找到一种永远保护人们的方法。在他的主要演讲中,他称建立了一个国际社会,这些国际社会由不同国家的人工安全机构和国内研究网络组成,以培养无法从人类那里获得权力的“好AI”。 那么,我们该如何通过培训来进行AI和友善? 周·鲍恩(Zhou Bowen):在这次会议上,图灵奖理查德·萨顿(Richard Sutton)的获奖者在您面前发表了演讲,题为“欢迎来到经验时代”。我认为他的意思是,当我们用尽人类数据时,该模型可以从自己的经验中学到很多东西。您从另一个角度描述代理或多模式LLM不仅从经验中学习,而且还可以发展自己的主观体验。 所以我认为理查德没有触及来回学习的潜在风险M主观体验。您想谈谈吗?如果代理商知道主观的经历,将来会带来什么潜在风险? Hinton:大型语言模型从我们给它们的文档中学习,因此将学习预测下一个单词。当世界上有像机器人一样的代理商时,他们可以从自己的经历中学习,我认为他们正在完成学习的比我们多。我认为他们会有经验,但经验不是什么。而且体验不像一张图片,经验是您与某物之间的关系。 周·鲍恩(Zhou Bowen):因此,几天前,当我们讨论削减Idais的风险时,您提到了一种解决未来AI风险的解决方案,这将找到一种训练目标AI分离的方法。例如,一种善良的AI,一个智能的AI。你有理论... 欣顿:我不是那个。我的意思是,您将拥有既聪明又友善的AI,但是如何训练它变得聪明以及如何训练它善良是不同的。您可以拥有使它变得友善和聪明的技术。它将是同一AI,但是会有不同的技术。因此,即使国家不愿共享使其明智之举的技术,各国也可以共享使其良好的技术。 周·鲍恩(Zhou Bowen):我真的很喜欢这个主意,但是我有几个问题,关于我们能走多远。您认为对AI的一般AI会有某种培训吗?这些方法可以应用于任何AI模型,即任何程度的智能? 欣顿:那是我的希望。这可能不是真的。但这是一种可能性。我认为我们应该研究这种可能性。 周·鲍恩(Zhou Bowen):我问这个问题不是因为我不喜欢这个想法,而是因为我想提高人们的意识,以便更多的人可以在您提到的方向上进行更多的研究。我想在这里做一个类比,向您展示为什么我有这个问题。 以物理为例,牛顿的定律是有效的速度以较低的速度移动。但是,当物体以较高的速度移动,接近光速时,牛顿法律不再适用,因此我们应该转向爱因斯坦以寻求更好的解决方案。这有点有趣,因为我向物理学101(大学物理学简介)进行了演讲,以获得诺贝尔物理学奖。 欣顿:但这是一个错误。 周·鲍恩:哦,不,这不是一个错误。您必须值得诺贝尔奖。 欣顿:他们真的很想在人工智能领域获得诺贝尔奖,但他们没有奖励。因此,他们获得了人工智能(科学家)的物理奖。 周·鲍恩(Zhou Bowen):但是我想用这个类比来描述一种观点。我认为,对于不同层次的智能系统,可以改变信仰的障碍。我不知道这是正确的,但我希望这个房间或在线的聪明年轻人能够学习实现这一目标的方法。 欣顿:是的,良好的技术可能会随着系统的bec而改变聪明。我们不知道。这就是我们今天在这里进行大量研究需要进行大量研究的原因之一。 Zhoubowen:作为剩下成就的人,您经常说:“我不知道。”我认为这是非常诚实和启发性的,我们都想向您学习。除了AI问题外,可以在网站上找到来自各个科学领域的领先学者的一半 - 量子物理学,生物学等。我们现在已经准确地组装了 - 因为我们相信AI和科学的交叉融合会带来突破。您如何找到使用AI来促进科学发展或与科学促进AI发展的使用? 欣顿:我认为人工智能在科学方面的帮助很明显。显然,至今最令人印象深刻的例子是折叠蛋白,他们对Demis Hassabis(DeepMind的创始人)和John Jumper(DeepMind的科学家)的偏好被合理地使用人工智能和大量努力证明了这一点。这些明智的pEople持续了五年。在猜测蛋白质如何折叠时,我们可以做得更好(包括AI)。我认为这是许多地方的早期签约,AI将改善科学。我听到了上海AI实验室的例子,这可能会更好地猜测着陆地点和天气预报。 周·鲍恩(Zhou Bowen):是的,我们使用AI模型产生的结果基于PDE(部分系统方程系统)传统物理模型的性能更好。 坚持直觉 “人工智能是年轻的职业和年轻人的职业。”对于年轻的科学家来说,如何选择正确的方向并努力也是一个重要问题。 周·鲍恩(Zhou Bowen):在您剩下的学术生涯中,您只是不断扩大AI技术的边界,但也极大地影响了下一代科学研究人员。我和比你年轻的许多学者交谈,他们都钦佩你。在上海人工智能实验室中,我们的研究人员只有30岁,表明AI的未来是年轻一代。 您的智慧之光在这些年轻的面孔上闪耀。我想知道您是否愿意分享:您对下一个AGI一代有何看法?还是您愿意给这些年轻人一些建议,以加快他们的成长,一些他们可以带回家,自豪地告诉父母并告诉他们的孩子的智慧? Hinton:我认为基本建议是:如果您想做真正的原始研究,那么您应该寻找“一切都会做错事”的地方。通常,当您认为“一切都是错误的”时,探索后,您最终会找到传统方法的公义。但这只是表明您不应该放弃新想法,除非您真正理解为什么它不起作用。即使导师拒绝您的方法,也继续提出问题。 坚持您的信念,直到您了解自己为什么错。有时,您将继续保持自己的信念D最终证明这是真的。这就是重大突破的来源,而他们并不是那些容易放弃的人。即使其他人不同意,您也应该留下自己的意见。 这种观点背后有一个逻辑:您的直觉或不良直觉。 kif你的直觉很好,那么你应该显然呆在这里。如果您的直觉不好,那么您做什么都没关系,因此您仍然应该坚持直觉。 类型 / ji jiaying 图片/王牌 来源/IT Times的官方帐户Vitimes返回Sohu查看更多