Workflow
元学习
icon
Search documents
又一华人科学家被挖走,OpenAI人才加速流失
Hu Xiu· 2025-07-12 10:43
奥特曼的日子是真的不好过啊。 当地时间7月11日下午,连着两个坏消息传来。 第一个坏消息,是扎克伯格又又又出手了,Meta又挖走了OpenAI的两名研究员。 而且,其中又有一名华人Lu Liu,是4o图像生成团队的一员干将。 第二个坏消息,是OpenAI差点就收购的AI编程公司Windsurf,不仅收购告吹了,还和谷歌"手拉手"官宣合作了。 说是合作,其实和收购也差不多了——不仅获得Windsurf部分技术的授权,还把公司CEO、联合创始人和部分员工全 部吸纳进谷歌DeepMind。 为此,谷歌不惜豪掷24亿美元。 还真是谁有钱谁上分,Meta和谷歌这两个老牌科技巨头,数十亿美元咣咣砸,留OpenAI在风中凌乱。 先来看看Meta又挖了谁。 这两个人都是OpenAI的研究员。 一个是Allan Jabri,曾在谷歌及DeepMind实习,2023年拿到美国加州大学伯克利分校计算机科学的博士学位,随后就 加入了OpenAI。Jabri长期研究"无需人工标签即可学习视觉常识"。他主张以对比学习或随机游走的形式,让模型在时 间连续的视频片段中自行发现"同一物体的不同视角"与"跨帧对应关系"。 Lu Liu是一名90 ...
新西兰奥克兰大学段雨晴:以脏数据为突破口,Z世代重塑AI创新范式
Huan Qiu Wang Zi Xun· 2025-07-06 06:52
来源:环球网 首先我想提出一个观点:在某些场景中,适度保留"脏数据"反而比过度清洗的数据更具价值。例如,在 金融领域的欺诈检测中,欺诈行为往往呈现出非典型、异常和不可预测的特征。如果我们在模型训练阶 段将这些"异常值"一概清除,便可能错失识别欺诈行为的关键线索。 这个现象让我联想到Z世代的成长轨迹。我们这一代人从小浸润在信息爆炸、真假交织的数字环境中, 但正是这种复杂的生态,锤炼了我们从噪声中提取价值信号的独特能力。真正重要的是,我们要能分辨 哪些混乱是有意义的,哪些只是随机噪音。这种能力既适用于人,也适用于AI系统。 其次,推动AI优化的另一关键是跨域数据融合。Z世代的思维模式天然就是多维度、跨领域的,这为我 们理解大数据的真正价值提供了独特视角。在金融领域,分析不再局限于传统的财报或股价数据,而是 融合图像、社交媒体评论、App使用行为等多源数据,从而更全面地理解市场动态。以我参与的ESG (环境、社会与公司治理)研究为例,如何将企业环境影响转化为可量化的风险指标,这一过程需要的 不只是技术手段,更需要洞察力与创新思维。在传统的经济指标滞后的情况下,我们仍可通过融合谷歌 搜索趋势、地理位置数据等实时信息, ...
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
机器之心· 2025-06-14 04:12
机器之心报道 编辑:Panda 近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海 交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」,参阅文章《 LSTM 之父 22 年 前构想将成真?一周内 AI「自我进化」论文集中发布,新趋势涌现? 》 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子: 而前些天,OpenAI CEO、著名 大 v 山姆・奥特曼在其博客《 温和的奇点(The Gentle Singularity) 》中更是畅想了一个 AI/智能机器人实现自我改进后的未 来。他写道:「我们必须以传统的方式制造出第一批百万数量级的人形机器人,但之后它们能够操作整个供应链来制造更多机器人,而这些机器人又可以建造更 多的芯片制造设施、数据中心等等。」 不久之后,就有 用户 @VraserX 爆料称有 OpenAI 内部人士表示,该公司 ...
揭秘LLM“思考”之谜:推理即“梯度下降”,元学习框架解构训练过程,还给优化提供新思路
量子位· 2025-06-10 04:05
RaML团队 投稿 量子位 | 公众号 QbitAI 近年来,大语言模型(LLM)以其卓越的文本生成和逻辑推理能力,深刻改变了我们与技术的互动方式。然而,这些令人瞩目的表现背后, LLM的内部机制却像一个神秘的"黑箱",让人难以捉摸其决策过程。 上海AI Lab的研究团队的近期提出Reasoning as Meta-Learning(RaML),尝试从 梯度下降 和 元学习 (Meta-Learning)的角度,揭示 了LLM如何"思考",并为优化其性能提供了新思路。 RaML的核心洞察:推理即"梯度下降" RaML框架的核心在于一个直观的类比:LLM在解决问题时生成的"推理轨迹"(即一步步推导的过程),就像模型参数在优化过程中的"伪梯度 下降"更新。 这意味着,当LLM进行多步推理时,其内部状态(即模型参数)会像典型的参数优化过程一样,逐步地"调整"和"适应",每一步都朝着更优的 解决方案逼近,直到得出最终的答案 。 研究团队通过理论推导发现,在Transformer模型中,每个推理轨迹的令牌都可以看作对参数的一次 "隐式更新" 。考虑典型的transformer块 的计算过程,当输入中增加一个推理轨迹令牌 ...