AI研发AI--世界上最重要也最危险的技术,也是众多AI巨头的目标
Hua Er Jie Jian Wen·2026-02-05 08:22
一项可能改变技术发展轨迹的能力正在AI实验室内部悄然成形。当AI系统开始自主研发更先进的AI时,人类对技术演进的理解和控制能力将面临前所未有 的挑战。 据追风交易台,安全与新兴技术中心(CSET)2026年1月发布的研讨会报告,这一进程已经开始,并可能在未来数年内加速,带来"重大战略意外"。 OpenAI已公开宣布,计划在2028年3月前打造"真正的自动化AI研究员"。报告显示,前沿AI公司目前已在内部使用自家最先进模型加速研发工作,且这些模 型往往先用于内部研发,然后才对外发布。 一位参会的机器学习研究员透露,在精心选择的任务上,AI模型能在30分钟内完成原本需要他数小时才能完成的工作。随着模型能力提升,能够自动化的 研发任务范围正在持续扩大。 这项技术的风险核心在于两点:一是人类对AI研发过程的监督能力将下降,二是AI能力提升速度可能超出人类反应能力。 报告警告,在最极端情境下,AI驱动的技术改进可能形成自我强化循环,导致"能力爆炸"——生产力提升从人类水平的10倍跃升至100倍、1000倍。AI系统 将完全主导研发流程,人类参与度趋近于零,由此产生的系统能力可能远超人类。 部分AI领域领军人物已警告,这 ...