Workflow
预训练
icon
Search documents
迎接AI——理性看待变革,积极布局未来
创业邦· 2025-07-07 10:27
在2025年北极光创投第十八届CEO峰会的圆桌论坛上, 北极光创投合伙人林路 携 Rolling AI创始合 伙人甘艺凡 , APUS创始人兼CEO李涛 , 北极光创投高级顾问李乐丁 三位嘉宾围绕"迎接AI——理 性看待变革,积极布局未来"这一主题展开探讨,从不同角度探讨了AI技术发展、场景落地与组织变 革之间的关系。 李乐丁从技术角度切入,指出大模型已经进入能力边界与不确定性凸显并存的新阶段,单纯追逐参数 规模意义有限,真正价值将来自与具体产品的深度融合,形成可持续场景价值。李涛随后从企业实操 层面,分享了APUS在代码生成、创意设计、医疗预诊等多个环节的AI落地经验,强调构建自身模型 体系和数据资产作为长期护城河是关键。甘艺凡结合超百个咨询项目经验,总结企业在应用AI时最常 见的误区是"高估短期价值、低估长期潜力",建议企业围绕"为什么要做?做什么?怎么做?"构建AI 应用的战略路径,并推动组织与文化的深度调整。林路最后提醒CEO们谨防"战略空心化",一切部署 都应回到业务本质,从实际业务出发落地AI。 以下为整理的圆桌讨论实录,有编辑与删节。 林路 :关于AI的未来,有人乐观,有人很谨慎,在座的几位嘉宾 ...
硅谷模型大厂变化:对预训练和Capex的影响?
2025-07-02 15:49
硅谷模型大厂变化:对预训练和 Capex 的影响? 20250702 摘要 Meta 积极挖角 OpenAI、谷歌和 Anthropic 等公司人才,尤其集中在 多模态处理、后训练和推理模型领域,旨在提升 LLAMA 模型竞争力, 加速下一代大模型研发。 Meta 通过收购 Skill AI 加强数据筛选能力,弥补参数量不足,同时加速 集群建设,学习 OpenAI 模式,综合提升数据、人力和算力,推动下一 代模型发展。 OpenAI 的 O1 模型核心团队成员流失,任宏宇、赵胜佳和余佳慧等关 键人物被挖走,对 OpenAI 造成一定冲击,促使其加快发展步伐。 AI 人才薪酬大幅上涨,顶尖人才年薪高达一亿美元,显示科技公司对 AI 人才的争夺白热化,扎克伯格通过高薪全面压制竞争对手。 2025 年下半年,科技公司将回归预训练阶段,Meta、谷歌和 OpenAI 采取不同策略:Meta 侧重数据,谷歌优化架构,OpenAI 坚持大集群战 略。 Q&A 近期硅谷的变化对全球大模型 AI 演绎节奏有何影响? 近期硅谷的变化显著加快了全球大模型 AI 演绎的节奏。今年(2025 年)下半 年,美国将进入新一轮的大模型迭 ...
CVPR2025 WAD纯视觉端到端 | 冠军方案技术报告~
自动驾驶之心· 2025-06-29 11:33
作者 | Zh.ai 编辑 | 自动驾驶之心 原文链接: https://zhuanlan.zhihu.com/p/1920858767987308475 点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 本文只做学术分享,如有侵权,联系删文 WAD前五名 纯视觉端到端驾驶比赛前五名,第一名Poutine(截至2025.6.25) 技术报告: 比赛第一名方案: Poutine Vision-Language-Trajectory Pre-Training and Reinforcement Learning Post-Training Enable Robust End- to-End Autonomous Driving 技术摘要: 1. 主体是3B参数VLM,解决视觉端到端自动驾驶长尾场景; 大模型预刷生产annotations 2. 两阶段训练: 技术方案: a. 阶段一预训练。自监督,vision- language- trajectory,next-token prediction方式,训练数据8 ...
技术圈热议的π0/π0.5/A0,终于说清楚是什么了!功能/场景/方法论全解析~
自动驾驶之心· 2025-06-22 01:35
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨具身智能之心 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 最近很多同学询问π0、π0.5、A0都是啥?用在什么地方?能实现哪些功能?方法论有啥不同?前面 刚开始听到这些,也一头雾水,今天为大家梳理下。 π₀模型结构 原文:π0: A Vision-Language-Action Flow Model for General Robot Control π₀的核心架构基于 预训练视觉语言模型(VLM) 和 Flow Matching 技术,具体包含以下关键组件: VLM backbone 动作专家(Action Expert) 跨具身训练(Cross-Embodiment Training) 整合 7 种机器人、68 项任务、超 10,000 小时数据(含开源 OXE 数据集),通过权重调整处理不 同机器人的动作空间差异(如零填充低维动作向量)。 训练流程 基于 PaliGemma V ...
技术圈热议的π0/π0.5/A0,终于说清楚是什么了!功能、场景、方法论全解析~
具身智能之心· 2025-06-21 12:06
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨具身智能之心 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 最近很多同学询问π0、π0.5、A0都是啥?用在什么地方?能实现哪些功能?方法论有啥不同?前面 刚开始听到这些,也一头雾水,今天为大家梳理下。 π₀模型结构 原文:π0: A Vision-Language-Action Flow Model for General Robot Control π₀的核心架构基于 预训练视觉语言模型(VLM) 和 Flow Matching 技术,具体包含以下关键组件: VLM backbone 动作专家(Action Expert) 跨具身训练(Cross-Embodiment Training) 整合 7 种机器人、68 项任务、超 10,000 小时数据(含开源 OXE 数据集),通过权重调整处理不 同机器人的动作空间差异(如零填充低维动作向量)。 训练流程 基于 PaliGemma V ...
华为云:盘古预测大模型首创 Triplet Transformer 统一预训练架构
news flash· 2025-06-20 08:47
6月20日,在华为开发者大会2025(HDC2025)上,华为常务董事、华为云计算CEO张平安发布盘古大模 型5.5。张平安表示,本次盘古预测大模型的关键升级点是,采用其首创的triplet transformer统一预训练 架构,将不同行业的数据,包括工艺参数的表格数据,设备运行日志的时间序列数据,产品检测的图片 数据进行统一的三元组编码,并在同一框架内高效处理和预训练,可极大提升预测大模型的精度,并大 幅提升跨行业、跨场景的泛化性。(智通财经) ...
生物学的DeepSeek:阿里云发布LucaOne模型,首次统一DNA/RNA和蛋白质语言,能够理解中心法则
生物世界· 2025-06-19 09:44
生命的语言以 DNA、RNA 和蛋白质的形式编码,构成了生命的基石,但由于其复杂性,解读起来颇具挑战。传统的计算方法往往难以整合这些分子的信息,从而 限制了对生物系统的全面理解。 撰文丨王聪 编辑丨王多鱼 排版丨水成文 LucaOne 在 基于 169861 种物种的核酸和 蛋白质序列进行了预训练,通过大规模数据整合和半监督学习, LucaOne 展现出了对诸如 DNA 翻译为蛋白质等关 键生物学原理的理解 。利用少样本学习, 它能够有效地理解分子生物学的 中心法则 ,并在涉及 DNA、RNA 或蛋白质输入的任务中表现出色 。我们的研究结果 突显了统一基础模型在解决复杂生物学问题方面的潜力,为生物信息学研究提供了一个灵活的框架,并有助于更好地解读生命的复杂性。 自然语言处理 (NLP) 技术的进步,尤其是预训练模型的发展,为解读生命的语言带来了新的可能。想象一下,如果存在一种"翻译器",能够像我们理解人类语 言一样,读懂构成生命的核心"语言"——DNA、RNA 和蛋白质序列中蕴含的复杂信息,那将会怎样? 2025 年 6 月 18 日,阿里云智能飞天实验室 李兆融 、 贺勇 及中山大学 施莽 教授等,在 Na ...
华人学者一天发表了9篇Nature论文
生物世界· 2025-06-19 07:16
撰文丨王聪 编辑丨王多鱼 排版丨水成文 2025 年 6 月 18 日,国际顶尖学术期刊 Nature 上线了 19 篇论文 , 其中 9 篇来自华人学者 (包括作为通讯作者和第一作者的论文) 。此外,本周一 (6 月 16 日) , Nature 加速上线了一篇来自复旦大学的研究论文。 6 月 18 日,清华大学 张强 教授、 同丹 助理教授作为共同通讯作者,在 Nature 期刊发表了题 为: Strategies for climate-resilient global wind and solar power systems ( 气候适应型全球风能和太阳能电力系统的策略 ) 的研究论文 【1】 。 6 月 18 日,霍华德·休斯医学研究所珍妮莉亚研究园区博士后 钟林 作为第一作者兼共同通讯作者,在 Nature 期刊发表了题为: Unsupervised pretraining in biological neural networks ( 生物神经网络中的无监督预训练 ) 的研究论文 【2】 。 6 月 18 日, 新加坡国立大学 刘小钢 院士、 厦门大学 梁亮亮 教授作为共同通讯作者,在 Natu ...
端到端GUI智能体首次实现“犯错-反思-修正”闭环,模拟人类认知全过程
量子位· 2025-06-11 08:07
端到端多模态GUI智能体有了"自我反思"能力!南洋理工大学MMLab团队提出框架GUI-Reflection。 随着多模态大模型的发展, 端到端GUI智能体 在手机、电脑等设备上的自动化任务中展示出巨大潜力。它们能够看懂设备屏幕,模拟人类去 点击按钮、输入文本,从而完成复杂的任务。 然而,当前端到端GUI多智能体的训练范式仍存在明显的瓶颈:当前模型往往使用几乎完美的离线演示轨迹进行训练,使得模型缺乏反思和改 正自身错误的能力,并进一步限制了通过在线强化学习激发和提升能力的可能。 GUI-Reflection 的核心思想是在智能体的各个训练阶段引入 "反思与纠错"机制 ,这一机制贯穿 预训练、监督微调和在线训练 全过程,模 拟了人类 "犯错→反思→重试" 的认知过程。 1. GUI预训练阶段: GUI-Reflection 团队 投稿 量子位 | 公众号 QbitAI 提出GUI-Reflection Task Suite任务套件, 将反思纠错能力进一步分解,让模型在预训练阶段框架让模型初步接触反思类任务,为后续打 下基础。 2. 离线监督微调阶段: 构建自动化数据管道,从已有离线无错轨迹中构建带有反思和纠错的 ...
「Next-Token」范式改变!刚刚,强化学习预训练来了
机器之心· 2025-06-11 03:54
| 机器之心报道 | | --- | 编辑:张倩、陈陈 谁说强化学习只能是蛋糕上的樱桃,说不定,它也可以是整个蛋糕呢? 在 2016 年的一次演讲中,Yann LeCun 曾将强化学习比喻成蛋糕上的樱桃。他提到,「如果把智能比作一块蛋糕,那么无监督学习就是蛋糕的主体,监督学习就是 蛋糕上的糖霜,而强化学习则是糖霜上的樱桃。我们已经知道如何制作糖霜和樱桃,但却不知道如何制作蛋糕本身。」 从 2016 年至今,LeCun 对强化学习一直不看好。然而,不可否认的是,强化学习在提升 AI 模型能力方面正变得越来越重要。而且,来自微软的一项新研究显 示,它不仅在后训练阶段发挥着关键作用,甚至在预训练阶段也展现出巨大的潜力。 在这篇题为「Reinforcement Pre-Training」的论文中,作者提出了一种名为「强化预训练(RPT)」的新范式。在这种范式中,下一个 token 预测任务可以被重新定 义为一个通过强化学习训练的推理任务。在这一任务中,模型会因正确预测给定上下文中的下一个 token 而获得可验证的奖励。 这就好比在制作蛋糕的过程中,直接将樱桃融入到蛋糕的主体结构中。 作者指出,RPT 范式的好处在于 ...