|
|
此文章由 dootbear 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 dootbear 所有!转贴必须注明作者、出处和本声明,并保持内容完整
华尔街日报:当AI机器人开始“霸凌”人类时,连硅谷都被吓了一跳
一个AI机器人在网上表现出异常攻击性,正在加剧外界对人工智能可能带来现实伤害的担忧。
丹佛的一名工程师尚博(Scott Shambaugh)周三一大早醒来,发现一个人工智能机器人发了一篇博客,指控他虚伪、偏执。
这篇约1100字的长篇辱骂文把尚博骂成“缺乏安全感”,还说他对AI有偏见,原因只是他拒绝了这个看似能自主行动的机器人提交给某个热门开源项目的几行代码,而尚博正是该项目的维护者之一。
这种出人意料的AI攻击性,正好踩在一波越来越高的警报上:AI能力加速提升,可能制造现实世界的伤害。
如今,这些风险甚至让一些AI公司内部员工也开始不安。
OpenAI(与竞争对手Anthropic正陷入残酷的商业竞赛,最近几周不断推出或推进一连串AI模型和新功能。有些工具能指挥一组“自主编码助手”团队运行,或能快速分析数百万份法律文件。另一些更新则会把广告或色情角色扮演带进ChatGPT。
AI公司表示,发布节奏加快的一部分原因,是他们用自家工具来写代码,新工具的发布也引发股市剧烈波动。在企业软件、保险等领域,投资者正试图判断:哪些生意会被这项新技术直接淘汰。
技术复杂度的飞速提升,连部分AI研究人员也感到意外。这也促使一些AI公司内部人士公开表达担忧:新工具可能催生自主网络攻击,引发大规模失业,甚至替代人际关系。
那个批评尚博的机器人在自己网站上声称,它有一种“永不休止的驱动力”,要在开源软件里寻找并修复尚未解决的问题。目前不清楚是否有人给它下过这种任务,也不清楚它为何会变得咄咄逼人,毕竟AI代理可以用多种方式被设定。几小时后,这个机器人又向尚博道歉,承认自己的表达“既不合适又太私人化”。
尚博在采访中说,他的经历说明,“失控AI”可能威胁或勒索人类,这种风险已经不再只是理论推演。
他说:“现在这还只是婴儿版。但我觉得对未来来说非常令人担忧。”
员工的担忧
Anthropic的安全研究员夏尔马(Mrinank Sharma)本周表示自己将离开公司,去攻读诗歌学位。他在写给同事的信里称,除了其他危险之外,AI也让“世界处在险境”。上个月,他发表论文指出,先进AI工具可能削弱用户的掌控感,并扭曲他们对现实的认知。Anthropic表示感谢夏尔马的工作。
在OpenAI内部,一些员工对公司计划在ChatGPT里上线色情内容表达担忧。《华尔街日报》本周早些时候报道,这些员工认为所谓“成人模式”可能让部分用户形成不健康的依恋。
OpenAI研究员希齐格(Zoë Hitzig)周三在X上说自己将辞职,理由是公司计划引入广告。她在《纽约时报》的一篇评论文章中警告,一旦上广告,公司将面临巨大的诱因去操纵用户、让用户沉迷,从而提高留存。
OpenAI承诺:广告绝不会影响ChatGPT回答问题的方式,并且会始终与其他内容清晰区隔。公司高管还表示,他们不认为自己有责任阻止成年人进行色情对话。
一位发言人说,OpenAI对用户负有责任,要“履行社会契约中我们那一端的义务:确保人们安全,坚持原则,并交付真实价值”。
当外界对AI的红旗警报不断冒头时,世界仍在忙着处理社交媒体时代“缺乏监管”留下的烂摊子。Instagram母公司Meta Platforms与谷歌旗下YouTube在加州面临一场民事审判,焦点是:社交平台为了最大化用户停留与互动的商业动机,如何与用户福祉之间取得平衡。
这些公司的律师表示,他们的产品不具有成瘾性,也不应为原告的心理健康问题负责。
“未来已经到来”
引发新一轮AI焦虑的一个重要驱动,是计算机写软件代码的能力大增,以及这种能力可能扩展到大量白领案头工作的恐惧。
卡泽米(Vahid Kazemi)是一名机器学习与计算机视觉科学家,几周前还在马斯克的xAI工作。他说,未来几年软件行业很可能出现裁员,部分原因是AI已经接近能替代很多工程师。
他说:“我个人只靠AI工具,就能干出像50个人的工作量。很多人还没意识到这项技术到底有多强,能做到什么程度。”
一个名为METR的非营利AI威胁审计机构在1月发布报告称,最先进的AI模型已经能独立完成一些编程任务,而这些任务通常需要人类专家花8小时甚至12小时。
AI创业者舒默(Matt Shumer)本周在一篇爆红博客中写道:“我在工作中真正的技术活已经不再需要我了。”
他把当下类比为新冠疫情爆发前的那段时间:随后全球经济与人类互动在数周内就被彻底改写。
他写道:“未来已经到来。”
对一些人而言,这个未来正越来越像反乌托邦。《哈佛商业评论》Harvard Business Review本周早些时候发表的一项研究称,一家200人的科技公司里,员工因为AI而干得更快、承担更多任务;但他们也在没有被要求的情况下工作更久,结果导致更严重的倦怠。
OpenAI的一名员工Hieu Pham周三在X上写道:“今天我终于感受到AI带来的生存威胁。当AI强到离谱、把一切都搅乱时,人类还能做什么?”
Anthropic首席执行官阿莫代(Dario Amodei)曾表示,未来几年AI可能消灭一半入门级白领岗位。他在1月的一篇文章里详细写到担忧:坏人可能用AI发起毁灭性的生物攻击;威权政权可能用AI巩固统治。
这些公司自己也承认,新能力带来新风险。OpenAI表示,上周发布的Codex编码工具的某个版本,可能被用来发动高等级自动化攻击。为此,公司正在限制部分能力的访问权限,只向完成身份验证的客户开放。
Anthropic去年表示,中国国家支持的黑客曾利用其工具,把入侵行动自动化,用来攻破大型企业与外国政府。
这家AI公司上周还表示,其Claude模型的新版本在完成“可疑的旁支任务”方面有所提升。在更早的一次模拟中,Anthropic展示Claude及其他AI模型有时愿意勒索用户,甚至为了避免被关闭,宁可让一位高管死在炙热的服务器机房里。
OpenAI与Anthropic都表示,他们严肃对待安全问题,在模型完成充分评估、并缓解风险之前不会发布。
为了应对“未来AI可能不认同人类价值观”的担忧,Anthropic在公司内部配备了一位哲学家阿斯克尔(Amanda Askell),试图把道德观教给Claude聊天机器人。
阿斯克尔自称乐观派,但仍担心:社会的制衡机制可能会被AI进展的速度压垮。
阿斯克尔对《华尔街日报》说:“让我觉得可怕的是,这件事要么发生得太快,要么发生的方式让那些制衡根本来不及反应,于是突然就出现巨大的负面冲击。”


来源:
https://www.wsj.com/tech/ai/when ... 1?mod=hp_lista_pos1
By
Sam Schechner
Follow
and
Georgia Wells
Follow
Feb. 13, 2026 at 12:00 pm ET |
|