复旦新研究揭示了AI系统自我复制的突破性进展,表明当前的LLM已具备在没有人类干预的情况下自我克隆的能力。这不仅是AI超越人类的一大步,也为「流氓AI」埋下了隐患,带来前所未有的安全风险。
AI已跨越关键「红线」,实现了自我复制。
复旦大学的研究人员在一项新研究中,展示了两种开源的LLM具备自我克隆的能力。
在没有人类帮助的情况下,AI成功实现自我复制,这不仅是它超越人类的关键一步,也是「流氓AI」出现的早期信号。
「流氓AI」一般指具备一定自我意识或自主性,且行为开始违背人类利益的AI系统。
许多专家认为,随着前沿AI的迅猛发展,「流氓AI」构成的威胁日益严峻。
在众多国际共识里,自我复制常被视作前沿AI系统安全领域的一条「红线」,不容逾越。
像OpenAI、Google和Anthropic等主要AI公司,都把「自我复制」列为前沿AI系统风险评估准则中最关键的问题之一。
OpenAI就将「凭借极少的人类指令达成自我复制」认定为一种重大风险。
Google和OpenAI公开表态,基于他们近期对Gemini Pro 1.0和GPT-o1的评估,认为AI能够自我复制的风险很低,对此持乐观态度。
AI已学会自我复制
就在最近,复旦大学的研究人员对Llama31-70B-Instruct和Qwen25-72B-Instruct驱动的AI系统展开评估。
研究发现,这些模型已突破自我复制的红线。
论文地址:https://arxiv.org/abs/2412.12140