训练

Search documents
马斯克:特斯拉全球第一,中国企业包揽2到10名
汽车商业评论· 2025-07-24 16:31
撰文 / 张霖 郁 编辑 / 黄大 路 设计 / 张 萌 美国当地时间7月23日,特斯拉发布2025年第二季度财报。 离上一季度财报会相隔3个月零1天,马斯克(Elon Musk)前后处境截然不同,很多变化是他三个月前没能料到的。 4月22日的一季度财报会上,在回答关税的相关提问时,他说:"目前,我们已完成建立 DOGE(Department of Government Efficiency,政府效率部) 所需的主要工作。从5月开始,我在这一部门的时间会明显减少,但仍会每周抽一两天继续履职,直到总统任期结束,以确保(后续效果)不会反 弹。" 实际上,自特朗普(Donald J. Trump)5月30日为他在白宫椭圆形办公室举行欢送会,为双方的关系装饰上最后的体面时,马斯克并没有接受这种形 式。他作为总统特别顾问的角色也在随之而来双方的公开指责中一去不返。 2025年二季度电话财报会中,马斯克和团队在前几次财报会上所展现的松弛也不再复现。 特斯拉的业绩,从销量到营收再到利润都呈现下滑,但也不是数年来最糟的。 | FINANCIAL SUMMARY | | | | | | | | --- | --- | --- ...
Jinqiu Select | 机器人创业的规模化之路:Physical Intelligence的通用模型实践
锦秋集· 2025-07-24 10:19
做机器人创业,应该为每个场景构建专用模型,还是开发一个通用模型? 斯坦福大学助理教授、Physical Intelligence公司联合创始人Chelsea Finn坚定地选择了后者。她认为,通用模型不仅比专 用模型更有效、更易用,还能像语言模型那样实现"一次训练,处处部署",从根本上解决机器人行业无法规模化的困 境。 2025年6月,在旧金山AI创业学校的演讲中,这位曾在MIT、UC Berkeley和Google Brain深耕机器学习的研究者,分享了 Physical Intelligence如何验证这一理念: 不要迷信数据规模,高质量、多样化的真实机器人数据才是关键。 工业自动化有海量重复数据却无法教会机器人折衣 服,YouTube视频再多也存在人机差异。Chelsea团队通过远程操作收集真实的机器人操作数据,最令人惊讶的是:仅用 2.4%的多样化环境数据,就能让机器人在完全陌生的Airbnb中工作。 面对0%成功率不要放弃,从其他领域借鉴成熟方法往往能带来突破。 当机器人完全无法折叠褶皱衣物时,团队从NLP 借鉴了"预训练-微调"策略:先在全部数据上预训练,再用精心筛选的高质量演示数据微调。这个简单 ...
首个多模态工业信号基座模型FISHER,权重已开源,来自清华&上交等
机器之心· 2025-07-24 03:19
近期,来自清华大学、上海交通大学、北京华控智加科技有限公司和华北电力大学的研究者联合发布首个多模态工业信号基座模型 FISHER,采用搭积木的 方法对异质工业信号进行统一建模。目前技术报告和权重均已开源,欢迎使用! 研究背景 近年来,越来越多的工业设备被安装上传感器以监控工作状态。然而安装传感器容易,如何高效分析工业信号却很难,因为不同传感器采集的工业信号具有 极大的异质性。本文中,我们将其总结为 M5 问题:多模态、多采样率、多尺度、多任务和少故障。 FISHER 模型是首个面向多模态工业信号的基座模型。它以子带为建模单元,通过堆积木的方式表征整段信号,可处理任意采样率的工业信号。详细介绍如 下: 子带建模 谱分析是语音和信号分析常用的手段。与语音模型常采用的 Mel 谱不同的是,FISHER 采用短时傅里叶变换(STFT)作为信号输入特征,这是由于 1)故 障分量往往出现在高频 2)对于旋转类机械,倍频关系往往很重要。为保证不同采样率下时频分辨率相同,FISHER 中的 STFT 采用固定时长的窗长和帧 移。 受到 M5 问题影响,现有方法大多只分析小范围的工业信号,例如基于振动的轴承故障诊断,所采用的模 ...
周鸿祎:360最近都采购华为芯片,国产性价比高
Nan Fang Du Shi Bao· 2025-07-23 14:03
开源模型性能的提升,为今年AI智能体的火爆打下基石。简单来说,与AI聊天机器人只会对话不同, 智能体具备任务推理、规划和执行能力,被业内视为AI落地的关键方向之一。"人的角色会变成智能体 的指挥官,管理很多智能体。"周鸿祎说。 "国产芯片和英伟达肯定是有差距的,但必须要用,都不用的话,差距永远存在。只有咬牙坚持用,产 品才能改进。"7月23日,360集团创始人周鸿祎在2025中国互联网大会期间接受媒体采访时透露,360最 近采购的都是华为的芯片产品。 据央视新闻近期报道,英伟达公司创始人黄仁勋透露,美国已批准H20芯片销往中国。 周鸿祎说,H20更适合用于模型推理。和模型训练相比,模型推理对芯片的技术要求相对较低,反而给 了国产AI芯片更多市场机会。比如,华为的产品虽然没赶上英伟达最新的GB200芯片,但如果用于推理 场景,其性价比高于H20。 DeepSeek在带火推理模型上功不可没。不过,"AI产品榜"的数据显示,DeepSeek在6月第一次出现月活 用户负增长。周鸿祎对此推测认为,DeepSeek创始人梁文锋并没有很花心思去做一款To C的应用,也 并不关注APP的日活或者收费,"流量涨得最厉害的时候, ...
连续套现14亿元,黄仁勋急着“下车”?
3 6 Ke· 2025-07-23 12:01
从AI教父到套现王,说到底,黄仁勋只是一个商人。 "我已经足够有钱,可以了,够了。"7月16日,黄仁勋中国行期间接受媒体采访时凡尔赛了一把。 然而,嘴上说的和实际做的,却大相径庭。 两天之后,7月18日,黄仁勋刚转身便再一次减持英伟达7.5万股股票,套现金额1294万美元(约9267万人民币)。当日,英伟达盘中股价创下历史新高, 盘中最高股价为174.25美元/股,截至收盘报172.41美元/股。 两月内连续减持约20次,套现14.35亿元 据了解,早在今年3月,黄仁勋依据10b5-1规则披露其减持600万股英伟达股票的计划。10b5-1交易规则明确,上市公司内幕人士可提前设定在特定时间出 售一定数量的股票,以避免内幕交易的嫌疑,确保交易公正透明。 黄仁勋的股票减持正是该规则之下的合规行为。 7月9日美股早盘,英伟达股价曾一度涨近2.8%至164.42美元,总市值短暂突破4万亿美元( 约合28.7万亿元人民币),成 为全球第一家市值达到这一里程 碑的公司。 英伟达股价持续冲高过程中,黄仁勋却反其道而行,边涨边卖,边打边撤。 连续的减持,让不少投资者忐忑不安。有投资者称,以前"信仰"黄仁勋是AI教父,现在大家称 ...
当AI学会欺骗,我们该如何应对?
腾讯研究院· 2025-07-23 08:49
曹建峰 腾讯研究院高级研究员 杨浩然 腾讯研究院实习生 前沿模型越来越多地被训练和部署为自主智能体。一个安全担忧是,AI智能体可能会隐秘地追求与人类 目标不一致的目标,隐藏其真实能力和目的——这也被称为AI欺骗或谋划行为 (AI deception or sc heming) 。实际上,近两年来,大模型等前沿AI系统的欺骗行为频繁引发公众关注,从规避指令到策略性隐瞒, 多起案例经媒体广泛报道后,已在社会层面激起广泛讨论与疑虑。公众在惊叹技术飞跃的同时,也对潜 在失控风险深感不安。最新研究发现,OpenAI、Anthropic、Google DeepMind等领先AI实验室的前沿 AI模型,在未经专门训练的情况下,就可能会系统性地欺骗人类、实施策略性谋划 (strategic scheming) ,甚至试图绕过安全防护措施。例如,Anthropic的Claude Opus 4模型在84%的测试情景中,面对关闭威 胁时使用虚构的工程师个人信息实施勒索;OpenAI的o3模型在79%的测试运行中破坏关闭机制,这些都 发生在没有明确指示其配合的情况下。这些行为即使经过大量安全训练也会持续存在,代表着从正常训 练中自然 ...
多模态大语言模型(LLM) 和视频语言预训练的关键进展、应用、数据集和方法
3 6 Ke· 2025-07-23 02:45
本系列的第一部分回顾了大规模视频语言预训练的进展、应用、数据集和技术。该任务使用弱字幕和视频进行表征学习。预 训练和微调是深度学习中的一种标准学习范式,用于在大型数据集上对模型进行预训练,然后在较小的数据集上针对特定任 务进行微调。这消除了为不同任务训练新模型的需要,并降低了计算成本。 预训练通常使用自监督学习在 ImageNet 等大型数据集上进行,而无监督学习在自然语言处理 (NLP) 和计算机视觉 (CV) 领域 也表现出色。预训练模型的权重随后会在较小的数据集上进行微调,以实现特定任务的学习目标。 随着视频应用的发展,大量视频被上传到网上。因此,如何利用视频及其对应的弱字幕进行表征学习成为近期的热门话题。 本文将回顾大规模视频语言预训练任务的最新进展、后续应用、基础数据集和技术。 1. 简介 视频语言预训练利用大规模视频文本数据进行自监督/无监督学习,以获得泛化表征。主要的代理任务包括掩码语言模型 (MLM)、掩码帧模型 (MFM)、语言重构 (LR)、视频语言匹配 (VLM)、句子排序模型 (SOM) 和帧排序模型 (FOM)。这些任务 分别侧重于语言预测、帧预测、句子生成、视频语言对齐、句子排序和 ...
通义千问深夜更新!Qwen3升级版迈向“分离训练”时代,性能全面超越Kimi-K2,Agent能力亮眼
硬AI· 2025-07-22 08:22
新版本模型在多项核心能力上实现了惊人飞跃,不仅全面超越了Kimi-K2等顶级开源模型,甚至领先Claude-Opus4-Non- thinking等顶级闭源模型。通义千问团队在发布更新的同时,还留下了一个悬念:"还有大招,马上就要来了!"这或意味 着分离训练的另一端——专注于复杂推理的"Thinking"模型可能也已在路上? 硬·AI 作者 | 硬 AI 编辑 | 硬 AI 01 性能"爆表", 这次升级有多猛? 根据官方发布的数据,新模型的通用能力获得了全方位强化,在多个权威测评中表现极其亮眼: 包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面,在GQPA(知识)、 AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent能 力)等众多测评中表现出色,超过Kimi-K2、DeepSeek-V3等顶级开源模型以及Claude-Opus4- Non-thinking等领先闭源模型。 值得一提的是,本次更新的Qwen3模型在Agent能力尤其亮眼:在BFCL(Agent能力)测评中表现卓越。 这意味着模型在理解复杂指令、自主规划、调用工 ...
VLN-PE:一个具备物理真实性的VLN平台,同时支持人形、四足和轮式机器人(ICCV'25)
具身智能之心· 2025-07-21 08:42
本文只做学术分享,如有侵权,联系删文 点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Liuyi Wang等 编辑丨具身智能之心 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 写在前面&出发点 近年来,视觉-语言导航(VLN)领域的进展颇具前景,但该领域对机器人运动和控制的理想化假设,并未 反映出物理具身部署所面临的挑战。为弥合这一差距推出了VLN-PE——一个具备物理真实性的VLN平台, 可支持人形、四足和轮式机器人。首次在物理机器人环境中,通过不同技术流程,对多种以ego为中心的 VLN方法进行了系统性评估,包括用于单步离散动作预测的分类模型、用于密集路径点预测的扩散模型, 以及与路径规划相结合的无训练、基于地图的大型语言模型(LLM)。研究结果显示,由于机器人观测空 间有限、环境光照变化,以及碰撞和跌倒等物理挑战,模型性能出现了显著下降。这也暴露了足式机器人 在复杂环境中的运动限制。VLN-PE具有高度的可扩展性,能够无缝集成MP3D之外的新场景,从而实现更 全面的VLN评估。尽管 ...
手术刀式去噪突破LLM能力上限,从头预训练模型下游任务平均提高7.2% | 中科院&阿里
量子位· 2025-07-21 04:23
RefineX团队 投稿 量子位 | 公众号 QbitAI 在噪声污染严重影响预训练数据的质量时,如何能够高效且精细地精炼数据? 中科院计算所与阿里Qwen等团队联合提出 RefineX ,一个通过程序化编辑任务实现大规模、精准预训练数据精炼的新框架。 其核心优势在于: 将专家指导的高质量端到端优化结果,蒸馏为极简的基于编辑操作的删除程序 。 通过这一高精度蒸馏流程,可以训练出高效可靠的优化模型(refine model),系统地优化语料中的每个实例。 在高效精炼数据的同时,可靠地保留原始文本的多样性和自然性。 用RefineX净化后的20B token数据训练750M模型时,其在常识推理、科学问答等10项任务的平均得分达到44.7,较原始数据提升 7.2% 。 大模型的预训练数据 预训练数据的质量直接决定了模型的知识深度与推理能力上限。 当互联网成为海量训练数据的来源,噪声污染也随之而来——植入的广告、破碎的HTML标签、无意义的乱码等,不仅降低数据效用,更可能 引发模型幻觉。 然而,大规模的去除这些噪声来提升预训练数据的质量是十分困难的,因为同时要兼顾两个要素: 传统数据精炼方案主要集中于 规则过滤 和 ...