Skip to content

title: "实践中测量 AI Agent 自主性" url: "https://www.anthropic.com/research/measuring-agent-autonomy" source: research date_scraped: "2026-03-15"

实践中测量 AI Agent 自主性

概述

Anthropic 研究人员分析了 Claude Code 和公共 API 中数百万次人机交互,以了解 AI agent 在实际场景中的部署方式。该研究考察了自主性水平、用户体验影响、风险概况和监督机制。

关键发现

自主运行时间持续增长 三个月内,Claude Code 会话的最长持续时间几乎翻倍,99.9 百分位数从不到 25 分钟增长到超过 45 分钟。这种跨模型版本的稳步增长表明用户随时间推移赋予了更多自主权,而不仅仅是能力提升。

监督模式转变 随着用户经验增长,"约 20% 的会话使用全自动批准模式,而经验丰富的用户中这一比例增长到 40% 以上。"矛盾的是,中断率也从 5% 上升到 9% 的轮次——经验用户从逐个批准每个操作转变为按需监督和介入。

Agent 自我监督 Claude Code 请求澄清的频率高于人类中断它的频率,尤其是在复杂任务上。这种主动发起的监督通过主动暴露不确定性来补充外部安全机制。

风险分布 大多数 agent 操作仍保持低风险和可逆性。软件工程占公共 API 上 agent 活动的近 50%,在医疗、金融和网络安全领域有新兴但有限的应用。仅 0.8% 的操作看似不可逆。

研究方法

团队采用两个互补的数据源:

  • 公共 API: 跨数千家客户的广泛可见性,分析单个工具调用
  • Claude Code: 完整的会话跟踪,支持工作流分析

两者都使用隐私保护基础设施来维护用户机密性,同时支持实证观察。

建议

模型开发者应投资部署后监控基础设施,并训练系统识别自身的不确定性。产品开发者应设计支持有效用户监督的界面,通过可见性和干预机制,而不是强制要求特定的批准模式。

研究强调,有效的 agent 监督源于模型设计、用户行为和产品架构之间的相互作用——这些因素在部署前测试中是不可见的。