Advertisement
Advertisement

新足迹

 找回密码
 注册
新足迹 门户 国际新闻 查看内容

刚刚获诺贝尔奖的人工智能教父Geoffrey Hinton是谁?其实他一直警告机器可能会接管世界

2024-10-10 06:53| 发布者: dootbear | 查看: 1017| 原文链接

华尔街日报:刚刚获诺贝尔奖的人工智能教父Geoffrey Hinton是谁?其实他一直警告机器可能会接管世界

刚刚获得诺贝尔奖的杰弗里·辛顿(Geoffrey Hinton)对他帮助创造的人工智能系统发出了一个信息:

如果不更加重视安全,它们可能会威胁人类的生存。

辛顿在周二接受诺贝尔奖官员采访时表示:“我认为我们正处于历史的一个分叉点,在未来几年内,我们需要找出应对这一威胁的方法。”

他在采访中既表达了对自己毕生工作感到自豪,也警告了这一技术可能带来的日益增长的危险。

76岁的辛顿去年从谷歌辞职,部分原因是为了能够更自由地讨论人工智能系统可能失控并影响选举或操控危险机器人。

他与其他经验丰富的人工智能研究人员一道,呼吁像OpenAI,Meta和谷歌等公司将更多资源投入到其正在竞相快速开发的先进系统的安全问题上。

辛顿获得诺贝尔奖不仅表彰了他在推动这些技术发展方面的重要作用,还为他对这些技术带来的末日警告提供了新的平台。

辛顿认为,先进的人工智能系统能够理解它们的输出内容,这在研究界是一个颇具争议的观点。

他说,“希望这个奖项能让我的话更具说服力,让人们相信这些系统确实理解它们在说什么”。

辛顿的观点使他与人工智能社区中某些派别发生了冲突,这些人认为对末日场景的过度关注会不必要地减缓技术进步,或者分散对更直接危害的注意力,例如对少数群体的歧视。

圣塔菲研究所(Santa Fe Institute)教授米切尔(Melanie Mitchell)去年在一个小组讨论中说,“我认为他是个聪明人,但很多人明显夸大了这些技术的风险,这真的让很多公众相信我们应该关注这个问题,而不是人工智能的更直接危害”。

周二,辛顿访问了谷歌硅谷总部,参加了一个非正式的庆祝活动,谷歌的一些顶级人工智能高管在社交媒体上向他表示祝贺。

像人类一样思考

辛顿与普林斯顿大学的约翰·霍普菲尔德(John Hopfield)共同分享了诺贝尔物理学奖,以表彰他们自20世纪80年代以来在神经网络领域的工作。神经网络以人脑为灵感处理信息,这项工作是许多当今人工智能技术的基础,从ChatGPT的人类对话能力到谷歌相册识别照片中人物的能力。

蒙特利尔大学的人工智能研究员本吉奥(Yoshua Bengio)说,“他们在物理学与生物学基本概念之间建立了联系,不仅是人工智能,这些概念至今仍然存在”。

2012年,辛顿与他在多伦多大学的两名研究生亚历克斯·克里泽夫斯基(Alex Krizhevsky)和伊利亚·苏茨克维尔(Ilya Sutskever)合作,开发了一个名为AlexNet的神经网络,该网络能够识别照片中的图像。

在此之前,计算机算法通常无法区分狗,猫或汽车。

AlexNet在2012年图像识别技术竞赛中的胜利标志着现代人工智能蓬勃发展的一个关键时刻,因为它证明了神经网络的强大能力优于其他方法。

同年,辛顿与克里泽夫斯基和苏茨克维尔创办了一家公司,但该公司存续时间不长。谷歌在2013年通过与百度和微软的竞价战中,以4400万美元收购了该公司,实际上是为了雇佣这三位科学家。

据《天才制造者》一书介绍,辛顿随后开始在多伦多大学和谷歌之间分配时间,继续进行神经网络的研究。

辛顿被广泛尊为当代顶级人工智能研究人员的导师,包括苏茨克维尔,他在创办OpenAI后于今年春天离职,创立了一家公司,名为Safe Superintelligence。

2018年,辛顿因神经网络研究与本吉奥和另一位人工智能研究员扬·勒昆(Yann LeCun)共同获得图灵奖,这三人常被称为现代“人工智能教父”。

灾难的警告

到2023年,辛顿对构建更强大的人工智能可能带来的后果感到担忧。他开始公开讨论人工智能系统可能会脱离其创造者的控制,给人类带来灾难性的危害。在这样做的过程中,他加入了一个关注技术存在性风险的活跃群体。

辛顿在去年的一次采访中说道,“我们面临的情况是大多数人甚至无法想象的,这些数字智能将比我们聪明得多,如果它们想要完成任务,它们会想要控制局面”。

辛顿在2023年春天宣布离开谷歌,称他希望能够自由地讨论人工智能的危险,而不必担心对公司造成影响。

他在社交媒体平台X上表示,谷歌的行为“非常负责任”。

在随后的几个月里,辛顿花了大量时间与政策制定者和技术高管(包括马斯克)讨论人工智能的风险。

去年,辛顿联署了一份文件,呼吁从事人工智能工作的公司,要将至少三分之一的研发资源用于确保系统的安全和道德使用。

辛顿在诺贝尔采访中说,“政府可以做的一件事是强制大公司将更多资源投入到安全研究上,例如,像OpenAI这样的公司不能把安全研究置于次要地位”。

OpenAI的发言人表示,该公司为其安全工作感到自豪。

今年夏天,辛顿与本吉奥和其他研究人员支持了加利福尼亚州立法机关通过的一项人工智能安全法案,该法案要求大型人工智能系统的开发人员采取多项措施,确保它们不会造成灾难性损害。

然而,加州州长纽森最近否决了该法案,该法案遭到了包括谷歌在内的大多数大型科技公司的反对。

辛顿日益积极的行动让他与其他受人尊敬的研究人员产生了分歧,后者认为他的警告是幻想性的,因为人工智能离具备造成严重伤害的能力还很远。

勒昆去年在X上回应辛顿时写道,“它们对物理世界的完全无知以及缺乏规划能力,使它们的智能水平远低于猫,更不用说人类了”。









来源:

https://www.wsj.com/tech/ai/a-go ... od=latest_headlines

Story by Miles Kruppa, Deepa Seetharaman • 23m • 5 min read
Advertisement
Advertisement


Advertisement
Advertisement
返回顶部