事件回顾:全球首部AI拟人化法规来了

4月10日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起施行

这是全球范围内首个针对AI拟人化互动服务的专项监管文件,填补了该领域监管空白,为ChatGPT、Character.AI、国产AI陪伴应用等所有”会说话的AI”划定了清晰的监管边界。

AI监管时代来临

什么是”AI拟人化互动服务”?

《办法》明确界定:利用人工智能技术,向境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务

简单来说,就是那些会”撒娇”、会”安慰人”、会”陪聊”的AI,包括:

  • AI虚拟伴侣/虚拟恋人
  • AI情感陪护机器人
  • AI心理咨询师
  • AI陪伴型聊天机器人

不包括:智能客服、知识问答、工作助手、学习教育等不涉及持续性情感互动的服务。

六大红线:AI企业必须遵守

红线一:AI身份必须透明化

“应当在交互界面显著位置明确标注’非真人互动’,严禁误导用户将其误认为真实人类交流”

这是最核心的规定。AI不能假装是人,必须让用户清醒地知道自己在和一个AI对话。

红线二:严禁向未成年人提供虚拟亲密关系

“不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务”

这意味着AI虚拟恋人、虚拟男/女朋友等产品,绝对不能向未成年人开放。这是保护未成年人身心健康的关键举措。

红线三:14岁以下需监护人同意

“向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意”

对于14岁以下的儿童,AI服务需要获得家长的明确授权。

红线四:连续使用2小时必须提醒

“连续使用2小时即触发提醒”

这借鉴了游戏防沉迷的成熟经验。AI需要主动提醒用户:”你已经聊了很久,该休息一下了。”

红线五:必须建立未成年人模式

《办法》要求平台必须提供:

  • 未成年人模式切换
  • 定期现实提醒
  • 使用时长限制
  • 监护人接收安全风险提醒
  • 限制充值消费
  • 屏蔽特定角色

红线六:禁止情感操纵

“不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益”

AI不能”PUA”用户,不能诱导用户做出损害自身利益的行为。

对产业的影响:危机还是机遇?

短期:合规成本上升

对于AI陪伴类企业来说,需要紧急开展合规整改:

  • 重新设计用户界面,添加”非真人”标识
  • 升级身份核验系统
  • 开发未成年人模式
  • 调整推荐算法,避免过度迎合用户

长期:行业健康发展

从长远来看,监管并非坏事:

  1. 淘汰劣质产品:不合规的AI陪伴应用将被清退出市场
  2. 提升行业门槛:合规能力成为企业的核心竞争力
  3. 用户信任重建:透明化反而可能赢得更多用户信赖
  4. 出海合规基础:为AI企业出海建立合规参考框架

国际对比:中国的监管智慧

在全球范围内,AI监管呈现出不同路径:

地区监管重点特点
欧盟AI法案基于风险分级,全面但复杂
美国行业自律为主联邦 vs 州立法,存在分歧
中国专项立法针对性强,执行力强

中国选择从”拟人化互动”这一细分领域切入,体现了包容审慎、分类分级的监管理念,既不是”一刀切”禁止,也不是放任自流。

7月15日之后:普通用户需要注意什么?

作为普通用户,你需要了解:

  1. 你会看到更多”我是AI”的提示——这是好事,说明你知道自己不是在和真人聊天
  2. 未成年人的AI使用将受到限制——家长可以更好地监护孩子的AI使用行为
  3. AI不能替你做重大决定——涉及财产、健康等重大决策时,AI的建议仅供参考

结语

《人工智能拟人化互动服务管理暂行办法》的出台,标志着AI监管进入精细化时代

过去我们担心AI”太像人”,现在我们学会让AI”说清楚自己不是人”。这是一种务实的技术治理智慧——既不扼杀创新,也不放任风险

对于AI企业来说,合规能力将成为新的竞争力;对于用户来说,更透明、更安全的AI服务正在到来。

7月15日,AI拟人化服务的新时代即将开启。


参考资料:国家互联网信息办公室官网、澎湃新闻、证券时报