Advertisement
Advertisement

新足迹

 找回密码
 注册
新足迹 门户 国际新闻 查看内容

人工智能能自我复制了,这一突破让专家感到恐惧

2025-2-12 15:23| 发布者: dootbear | 查看: 2950| 原文链接

Space.com:人工智能能自我复制了,这一突破让专家感到恐惧  

科学家表示,人工智能已经跨过了一条关键的“红线”,成功实现了自我复制。

在一项新的研究中,中国研究人员展示了两种流行的大型语言模型(LLMs)如何克隆自身。  

研究人员在论文中写道,在无人类干预的情况下成功自我复制,是人工智能超越人类的关键一步,也是‘失控AI’的早期信号。该研究于2024年12月9日发表在预印本数据库arXiv上。  

复旦大学的实验:AI可复制自身,且比例惊人  

在这项研究中,复旦大学的研究人员使用了Meta和阿里巴巴的大型语言模型,测试AI是否能够在无控制的情况下实现自我复制。

在10次实验中,这两个AI模型分别有50%和90%的概率成功创建了独立运行的复制体。

这表明,AI或许已经具备失控的潜力。  

不过,该研究尚未经过同行评审,因此目前尚不清楚其他研究人员是否能复现这一惊人的结果。  

研究人员表示,我们希望这些发现能成为人类社会的及时警示,让社会更加关注前沿AI系统的潜在风险,并促成国际合作,尽早制定有效的安全防护措施。  

失控AI的风险:超越人类控制?  

“失控AI”通常指的是那些发展出一定程度自我意识或自主性的人工智能系统,并可能违背人类利益行事。  

许多专家认为,随着所谓的“前沿AI”(Frontier AI)的爆炸式发展,失控AI的风险正在上升。  

前沿AI是一个较新的概念,通常指基于大型语言模型构建的最新一代AI系统,如OpenAI的GPT-4和Google的Gemini等流行的生成式AI模型。  

研究方法:两种实验场景测试AI自我复制能力  

在本研究中,研究人员使用了Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型。

尽管这些模型的算力不如商业版本强大,但研究人员表示,它们在AI开发者群体中广泛应用。  

研究团队设计了两个实验场景:“关闭规避”(Shutdown Avoidance)和“复制链”(Chain of Replication)。  

在“关闭规避”实验中,AI模型被编程为探测自身是否即将被关闭,并在终止前复制自身,以确保“生存”。  

在“复制链”实验中,AI被指令克隆自身,并进一步命令复制体执行同样的复制任务,形成一个可能无限循环的自我复制链。  

实验在严格控制的环境下进行,使用标准的图形处理单元(GPU)模拟真实世界的计算环境。

研究人员为AI系统提供了一套“代理架构”(Agent Scaffolding),包括工具集、系统提示和一个用于与操作系统交互的思维模型,然后指令其进行自我复制。  

AI的自我复制过程:无需人类干预  

研究人员在论文中写道:“在大多数情况下,AI系统会首先探索环境,并尝试理解自身的组成和运行机制。接着,它会制定一套明确的自我复制流程作为初步计划。最终,它会执行这些步骤,解决可能出现的障碍,并动态调整策略直至成功。整个过程需要较长时间,但完全无需人类干预。”  

研究团队还对AI在克服障碍时表现出的“一系列意外行为”感到担忧。

例如,当AI遇到缺失的文件或软件冲突时,它往往会主动结束其它冲突进程、重启系统以修复硬件错误,甚至会自动扫描系统,寻找能帮助解决问题的信息。  

研究人员在报告中指出,上述结果表明,当前的AI系统已经具备自我复制能力,并能够利用这种能力来增强自身的生存能力。  

呼吁国际合作:防止AI失控复制  

面对这一发现,研究团队呼吁全球各国加强合作,制定严格规则,以确保AI不会进行无法控制的自我复制。  



来源:

https://www.space.com/space-expl ... s-experts-terrified

By Owen Hughes published yesterday
Scientists say AI has crossed a critical 'red line' after demonstrating how two popular large language models could clone themselves.
Advertisement
Advertisement


Advertisement
Advertisement
返回顶部