Workflow
我们对AI认识远远不足,所以透明度才至关重要|腾研对话海外名家
腾讯研究院·2025-11-06 08:33

本文为 腾讯研究院 AI&society 海外名家对话 系列第一篇,与谈人:曹建峰(腾讯研究院高级研究员)。 引子: 当我们看不清AI,我们就无法真正治理它 我们正在进入一个AI无处不在,却又几乎难以察觉其存在的时代。它悄然参与我们的社交、内容、服务、消费,甚至影响着我们的情绪、偏好与行为。但我们真 的知道,它在哪儿、做了什么、由谁控制吗?当我们看不清,就无法信任;无法信任,也就谈不上治理。 关于AI透明度的讨论,正在指向一个最基础却至关重要的问题——在AI时代,"看得见"的能力意味着什么?又该如何让AI被我们真正"看见"? 为什么"看见"AI如此重要? 当我们在互联网上接收信息、进行互动时,面对的究竟是真实的人类还是"以假乱真"的AI?随着生成式AI更广泛地渗透到社交、创作、服务等各个场景,虚假 信息、身份欺诈、深度伪造等风险也随之涌现。由此,"AI活动标识" (AI Activity Labeling) 逐渐成为全球共识,AI透明度义务义务被中国、欧盟等多个监管 机构写入法律,要求服务提供者明确标示哪些内容由AI生成,哪些互动来自AI系统, 以帮助用户识别伪造信息、增强警惕、降低误信和受骗的风险。这是当 ...