驯服AI“猛虎”,企业需有治理思维
2 1 Shi Ji Jing Ji Bao Dao·2025-07-29 22:52
传统TMT投资模型中,安全投入被视为"可延迟的固定成本"。但辛顿的警告提供了新的约束条件:一旦 AI能力跨过某个临界点,其"失控损失"趋于无穷大——即毁灭性风险的尾部概率不可忽略。在经济学的 语言里,这意味着安全投入从"可选项"变为"生产函数中的必要投入",与算力、数据并列。任何企业若 无法在模型训练阶段内嵌"不想消灭人类"的效用函数,其未来现金流将被资本市场以无限折现率惩罚, 估值直接归零。 施密特的建议则给出了操作化路径:在国际治理框架出台前,企业须先自行搭建"护栏"——可计算、可 审计、可问责的安全标准。这相当于把安全市场提前内部化:企业今天花的每一美元在RLHF(人类反 馈强化学习)、对齐研究或红队测试(模拟对抗性攻击)上,都是在购买一份"尾部风险保险",并提前 锁定未来监管博弈的议价权。谁先跑通"安全即服务"(Safety-as-a-Service)的商业模式,谁就能把合规 成本转化为竞争壁垒。 周城雄(中国科学院科技战略咨询研究院研究员、数智创新与治理研究中心副主任) 在近日举行的2025世界人工智能大会上,诺奖得主杰弗里·辛顿与前谷歌CEO埃里克·施密特罕见同台。 辛顿把超级AI比作"养不大的老 ...