|
|
此文章由 dootbear 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 dootbear 所有!转贴必须注明作者、出处和本声明,并保持内容完整
金融时报社论:Anthropic与五角大楼的冲突给出的教训:AI军用需要更强的民主监督
如果各国政府与科技业领袖必须合作,为越来越强大的AI系统建立谨慎的控制机制,那么美国国防部最近的做法,几乎是一堂“反面教材”。上周,五角大楼因Anthropic拒绝让政府完全掌控其技术用途而公开抨击该公司,并采取措施把Anthropic排除出军方供应链。
这种情绪化的报复,很符合美国总统特朗普政府近来的风格。
与此同时,竞争对手OpenAI匆忙与国防部达成协议,表面上似乎接受了Anthropic拒绝的条件,允许国防部按其意愿使用技术,只要不违法。可在舆论强烈反弹后,OpenAI又试图给技术加上额外“护栏”。其负责人奥特曼坦言,在Anthropic被政府“晾着”的时刻冲上去签约,让OpenAI看起来“机会主义又草率”。
这起事件并不会让公众相信:
政府正在以冷静、克制的方式使用这种极其强大的技术。但它至少凸显了一个更迫切的需求,更专业、更民主的问责机制。
Anthropic与OpenAI在尝试给技术设限方面值得肯定:
例如确保AI不会被用于对美国人进行大规模监控,或被用于脱离人类控制的自主武器。
然而,两家公司的做法都存在弱点,而且无论哪家公司的自我约束,都无法替代更公开的政治决策流程,这一点两家公司自己也承认。
Anthropic担心现行美国法律不足以约束政府,于是坚持保留对AI用途的否决权。任何政府都很难接受在国家安全关键技术上“向供应商服务条款低头”。
更现实的问题是:如果公司领导层或战略目标变化,过去允许的用途会不会突然被封死?
相比之下,OpenAI看起来更像是接受了国防部的要求:只要在法律范围内,就让政府自由使用。但几天后,OpenAI又收紧合同条款,试图弥补法律可能存在的空白,其律师团队也仍不确定合同是否真正“滴水不漏”。
未来遇到类似合同博弈,AI公司是否还愿意强硬坚持也是未知数。双边交易的另一个结构性缺陷是:它让五角大楼处于优势位置,能够把AI公司“互相拿来压价”,这次在Anthropic与OpenAI身上似乎就出现了这种操作。报道称,Anthropic首席执行官阿莫代伊(Dario Amodei)正在做最后努力,试图与国防部达成协议。
如果未来各方更有信任、做事更克制,政府与AI公司或许能谈出更可行的方案。OpenAI称五角大楼希望建立一个更广泛的行业与政府工作组来讨论这些问题。但这种机制永远不能替代完整的民主审议。若AI按当前速度发展,民主国家将承受更大压力:无论是就业被冲击,还是AI生成虚假信息的洪流。
真正能确保护栏到位的,只有国会采取行动。
在国防领域,这意味着在安全允许范围内尽可能透明,划出清晰红线,以回应AI既强大、又至少在现阶段仍不完全可预测的新现实。
公众的长期安全,不该依赖少数科技巨头与军方官员的个人良心。

来源:
https://www.ft.com/content/ed959d71-4937-4ce6-a4e8-87cb939fca20
The editorial board
Published46 minutes ago
0 |
|