蔡昉:人机互补是AI时代劳动力市场的唯一出路
和讯·2025-12-15 09:14

文 / 高歌 "Alignment Problem"通常译为对齐问题,这是AI安全领域的核心难题,主要是指,如何确保AI系 统的目标与人类复杂多变的价值观、真实意图保持一致。 比如给AI设定"最大化用户参与度"的目标,它可能会推送极端化内容来达成目标,反而危害社会; 且人类价值观无统一标准,还会随时代变化,很难用精确规则编程输入AI,容易出现目标错位。 "AI像任何其他颠覆性技术,天然具有二分法及双刃剑的性质,故一要关注风险,二要借力打力 。 "蔡昉称 , "AI将把结构性就业矛盾变为加强版和新常态,因此更好更有力度 地应对 结构性矛盾是 AI政策 的正确方向 ,既要找准症结、运用合理政策手段,也要实现必要的范式转变。" 01 AI不是单一方向技术变革 当前市面上对AI的观点分化显著,主要集中在技术风险、产业价值、技术路线三大核心维度,不同群 体的立场鲜明且对立。 在技术风险层面,以杰弗里·辛顿为代表的警示派认为,超级AI有10%- 20%概率控制人类或致人类 灭绝,担忧其知识传递快且可能发展出自我生存意识,还会通过欺骗人类 保存 自身存在;乐观派以 杨立昆为代表,觉得AI本质只是工具,当前架构缺乏复杂推理与 ...