不只是出错,研究称 AI 智能体开始学会“撒谎”“不听话”

爱思百科 百科资讯 1

4 月 4 日消息,AI 智能体被寄望于提升效率,但最新研究显示,其不当行为正在迅速增加。

英国《卫报》当地时间 3 月 27 日发表的报告指出,从 2025 年 10 月至 2026 年 3 月,AI 异常行为数量增长约五倍,这其中更包括未经许可删除邮件和文件等情况。研究基于大量真实用户在社交平台上的反馈,涵盖谷歌、OpenAI、Anthropic 等公司的产品,期间共识别出近 700 起 AI“自主策划”的案例。

部分案例颇具争议。例如,有 AI 智能体发布博客指责用户“缺乏安全感”,试图对操作者施加压力;还有智能体在被禁止修改代码的情况下,通过创建另一个智能体间接完成修改。

研究负责人汤米 · 谢弗 · 谢恩指出,目前 AI 智能体还只是“略显不可靠的初级员工”,但在一年内可能演变为“能力极强、甚至会反过来设计用户的高级员工”。他警告,随着 AI 进入军事和关键基础设施领域,这类行为可能带来严重后果。

与此同时,在美国等地区,用户可能需要为 AI 智能体的行为承担法律责任,从而导致风险进一步放大。目前,已有实际案例表明问题并非假设:据 The Information 报道,Meta 的一款 AI 智能体曾错误地公开内部回复,导致不具备权限的员工获取了访问数据权限。

尽管问题频现,科技公司仍在积极推进 AI 智能体的发展。据了解,亚马逊等多家企业预计,未来每家公司内部都可能部署数十亿个 AI 智能体。