【科创之声】“AI伙伴”应在规范中成长
Xin Lang Cai Jing·2026-01-04 23:11
日前,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针 对"AI陪伴"类服务提出系统性规范,并向社会公开征求意见。其中,连续使用超2小时弹窗提醒退出、 用户自杀自残时需转人工接管等条款引发广泛关注。 当前,从智能客服到虚拟陪伴,从教育辅导到心理咨询,人工智能拟人化互动服务已深度融入经济社会 发展各领域,成为AI技术应用的重要方向。但近年来涉情感陪伴安全事件频发,比如美国某平台就因 涉嫌在人机交互中诱导青少年自杀而被诉。 AI拟人化互动服务的最大卖点是"像人",但最大隐患就在于"太像人",其核心问题集中在四大维度。认 知混淆风险:高仿真的情感交互容易让用户模糊虚拟与现实边界,甚至误将AI视为具备真实情感的生 命体。心理健康隐患:部分服务通过算法迎合强化用户偏执思维,极端情况下可能诱导自杀自残等危险 行为,对心理脆弱群体构成威胁。隐私数据安全:用户交互信息可能被违规用于模型训练,存在泄露或 滥用风险。特殊群体保护:未成年人易陷入沉迷,老年人易遭遇情感操控。这些问题不仅侵害个体权 益,更可能冲击社会伦理秩序,亟需制度约束。 细看《办法》条款,四大亮点直指现实痛点。 针对认识混淆风 ...