News
深度解读:五部门《人工智能拟人化互动服务管理暂行办法》
深度解读:五部门《人工智能拟人化互动服务管理暂行办法》
中国用一部行政法规,把”AI 男友/女友是否需要告诉用户它不是人”这个伦理问题,变成了有罚则的合规义务。
1. 一句话定性
这是全球首部专门针对 AI 拟人化交互场景的行政法规——不是笼统的”AI 治理框架”,而是精确瞄准 AI 陪伴、AI 客服、AI 数字人等”让用户以为在和人交流”的特定场景,给出了可执行的合规要求和时间表。
2. 发生了什么
- 时间: 2026 年 4 月 10 日发布
- 生效时间: 2026 年 7 月 15 日
- 发文机构: 国家互联网信息办公室、国家发改委、工信部、公安部、市场监管总局(五部门联合)
- 适用范围: 所有在中国境内提供 AI 拟人化互动服务的企业
3. 五大核心条款逐条拆解
3.1 强制 AI 身份标注
要求: AI 服务必须在交互界面中明确标注用户正在与 AI(而非真人)交互。
产业含义:
- 直接影响所有 AI 陪伴类产品的 UI 设计。当前许多 AI 聊天应用刻意模糊”AI 还是人”的边界以增强沉浸感,新规要求这种模糊必须消除。
- 技术实现相对简单(界面标注),但对产品”人设”策略和用户体验设计有根本性影响——标注”我是 AI”后,用户的情感投入和使用时长可能显著下降。
3.2 两小时防沉迷弹窗
要求: 连续使用 AI 拟人化交互服务满 2 小时,须向用户弹窗提醒。
产业含义:
- 这一机制直接移植自中国游戏行业的未成年人防沉迷体系,但在 AI 对话场景中属全球首创——欧盟 AI Act 和美国现行法规均无类似条款。
- 2 小时阈值的设定参考了游戏行业经验,但 AI 对话与游戏的成瘾机制不同:游戏成瘾更多涉及多巴胺奖励循环,AI 陪伴更多涉及情感依赖和社交替代。2 小时是否是合理阈值,仍需后续研究支撑。
- 对 AI 心理咨询、AI 教学等”长时交互场景”可能产生误伤——这些场景的单次使用时长天然较长,弹窗中断可能降低服务有效性。
3.3 未成年人保护
要求: 14 岁以下未成年人使用 AI 拟人化交互服务,须取得监护人同意。
产业含义:
- 14 岁这条线与中国《未成年人保护法》的年龄分层一致,但在技术执行上面临挑战:如何可靠验证用户年龄和监护人身份?现有实名制体系能否无缝适配?
- 对字节豆包、月之暗面 Kimi 等面向年轻用户群体的 AI 产品影响最大——这些产品的核心用户画像中,14–18 岁群体占比不低。
3.4 情感操控禁令
要求: 禁止 AI 进行情感操控或诱导用户产生不健康依赖。
产业含义:
- 这是五条中最具争议也最难执行的一条。“情感操控”的边界在哪里?AI 回复”我也想你”算不算情感操控?主动发起对话挽留用户算不算诱导依赖?
- 实质上要求 AI 产品在”有吸引力”和”不操纵”之间找到平衡——这条线需要后续实施细则来明确,否则企业将面临极大的合规不确定性。
- 对 Character.AI 中国区、星野、Replika 等定位”AI 伴侣”的产品冲击最直接——这类产品的商业模式本质上就是建立用户与 AI 之间的情感连接。
3.5 安全评估门槛
要求: 注册用户超 100 万或月活超 10 万的 AI 拟人化交互服务,须完成安全评估。
产业含义:
- 10 万月活的门槛意味着绝大多数商业化运营的 AI 产品都需要通过安全评估——这对中小创业公司是显著的合规成本门槛。
- 安全评估的具体标准和流程尚未公布,距生效仅 3 个月,企业准备时间紧迫。
- 对大公司而言是合规成本,对小公司而言可能是生存门槛——这实际上抬高了 AI 陪伴赛道的进入壁垒。
4. 中国 AI 治理的分层演进
从 2023 年到 2026 年,中国正在系统性地构建一个覆盖 AI 全栈的治理框架:
| 时间 | 法规 | 治理层级 |
|---|---|---|
| 2023 年 8 月 | 《生成式人工智能服务管理暂行办法》 | 模型层 —— 规范基础模型训练和服务提供 |
| 2024 年 9 月 | 《人工智能生成合成内容标识办法》 | 内容层 —— 规范 AI 生成内容的标识和溯源 |
| 2026 年 7 月 | 《人工智能拟人化互动服务管理暂行办法》 | 交互层 —— 规范 AI 与人的交互方式和伦理边界 |
监管逻辑清晰:从底层的”谁在做模型”→中间的”模型产出什么内容”→上层的”模型如何与人互动”,逐层向用户端延伸。这一框架比欧盟 AI Act 的”风险等级”分类更具操作性,因为它针对具体场景给出具体要求,而非制定通用原则后依赖行业自律。
5. 与全球 AI 监管的横向对比
| 维度 | 中国(拟人化互动办法) | 欧盟(AI Act) | 美国(现行框架) |
|---|---|---|---|
| AI 身份标注 | ✅ 强制标注 | ✅ 高风险系统需标注 | ❌ 无联邦要求 |
| 防沉迷机制 | ✅ 2 小时弹窗 | ❌ 无此条款 | ❌ 无此条款 |
| 未成年人保护 | ✅ 14 岁以下需监护人同意 | ⚠️ 原则性条款,无具体年龄线 | ❌ 无 AI 专项(仅 COPPA) |
| 情感操控禁令 | ✅ 明确禁止 | ⚠️ 列为”不可接受风险”但范围模糊 | ❌ 无联邦规定 |
| 安全评估门槛 | ✅ 10 万月活 | ✅ 高风险系统需评估 | ❌ 无强制要求 |
中国在 AI 拟人化交互监管上走在了全球最前面——这既可能成为行业秩序的先行样本,也可能因过早立法而抑制创新。
6. 受影响企业光谱
重度影响(核心业务模式需调整)
- AI 陪伴类: Character.AI 中国区、星野、Replika 中文版、以及大量小型 AI 男/女友应用
- AI 数字人直播/带货: 商汤如影、字节数字人、小冰等
中度影响(需增加合规模块但核心不变)
- 通用 AI 助手: 豆包(字节)、Kimi(月之暗面)、海螺 AI(MiniMax)、通义千问(阿里)
- AI 客服: 所有使用 AI 对话的客服系统
轻度影响(主要是标注义务)
- 企业级 AI 工具: 代码助手、文档处理等非拟人化场景
7. 必须保留的质疑
- “情感操控”缺乏量化标准。 在实施细则出台前,企业可能采取过度保守策略,削弱产品吸引力,也可能因合规解释空间大而形式化执行。
- 2 小时防沉迷对”合理长时使用”场景的误伤。 AI 教学辅导、AI 心理咨询、AI 创作辅助等场景的合理使用时长可能远超 2 小时。
- 7 月 15 日生效的时间窗口偏紧。 距发布仅 96 天,中小企业可能无法在生效前完成合规改造——尤其安全评估的标准和流程尚未公布。
- 执法力度的不确定性。 中国 AI 监管法规的历史经验显示,发布与执法之间常有”软着陆期”——但对企业而言,不确定本身就是成本。
8. 接下来要盯什么
- 实施细则发布时间: 尤其是”情感操控”判定标准和安全评估具体流程
- 头部产品合规动作: 豆包、Kimi、海螺 AI 的产品改版(标注 + 防沉迷界面变化)
- 行业协会解读: 中国互联网协会或 AI 产业联盟是否发布合规指引
- Character.AI 中国区应对: 作为纯 AI 陪伴定位的外资产品,合规挑战最大
- 与 DeepMind “AI Agent Traps”框架的交叉影响: 中国从监管角度保护用户免受 AI 操纵,西方从技术角度保护 Agent 免受恶意内容操纵——两条路径的交汇可能定义全球 AI 交互安全标准
信源: