Workflow
机器之心
icon
Search documents
宇树科技官宣:年内提交IPO,或将冲刺科创板
机器之心· 2025-09-03 04:33
机器之心报道 机器之心编辑部 宇树的上市进程,终于又向前迈进了一步。 9 月 2 日晚间,杭州宇树科技股份有限公司(简称「宇树科技」)发布声明说,预计于今年四季度向证券交易所提交上市申请文件,立即引来了大量关注。 完整公告内容如下: 宇树科技自成立以来一直是一家「民用机器人公司」。目前,公司正在积极推进首次公开募股(IPO)的准备工作。根据 IPO 计划, 公司预计将在 2025 年 10 月 至 12 月期间向证券交易所提交备案文件,届时公司的相关经营数据将会正式披露 。 接下来简要介绍一下公司产品的收入结构。我们以 2024 年为例(具体数据应以后续 IPO 备案文件披露的信息为准): 四足机器人、人形机器人及零部件产品的销售额分别约占 65%、30% 和 5%。 其中, 大约 80% 的四足机器人用于科研、教育和消费领域,其余 20% 用于工业领域,如检测和消防。人形机器人全部应用于科研、教育和消费领域 。 自成立以来,宇树科技一直致力于高性能通用机器人在民用领域不同产业中的应用,并在公司官网、产品手册、合作协议以及各类文件中明确声明和限制相关用 途。 特此提醒各方需谨慎识别,不要将其他公司的机器人产品 ...
从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
机器之心· 2025-09-03 04:33
机器之心发布 「RoboMirage」具有以下核心特性: 1. 全物体类型兼容的可扩展接触建模框架 支持刚体、1D/2D/3D 可形变体、多关节结构及各种机器人末端执行器的多样接触,具备强耦合仿真能力,兼容未来可微仿真与高精度训练需求,且允许用户自定 义扩展功能,为多样化场景提供灵活适配的底层架构。 RoboScience 在具身智能的发展路径中,如何获得海量且高质量的数据是行业绕不开的核心问题。 如果说大语言模型依赖于互联网规模的语料库,那么具身智能的成长同样需要规模化的交互经验。现实中,收集这些数据的代价极高:机械臂等硬件部署成本 高,单台投入就需数万元,且难以规模化;数据采集环节依赖经验丰富的数采员且耗时漫长。而在仿真环境中,智能体则可以以更低成本、更高效率进行无限次 试错,从而快速积累大规模交互经验。 正因如此,过去几年中,仿真器已经成为具身智能发展的重要支撑工具,也催生出一批优秀的开源与商业化平台。它们让机器人学、强化学习和智能体研究得以 快速推进,奠定了行业的基础。 但随着研究不断深入,行业对于数据提出了更高要求: 更高 的 物理精度 ,以保证数据与现实世界的贴合度; 更丰富的交互类型 ,覆盖刚体 ...
语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
机器之心· 2025-09-03 04:33
语音分离领域针对具有挑战性的 "鸡尾酒会问题",随着深度神经网络 (DNN) 的发展,该领域取得了革命性的进展。语音分离可以用于独立应用,在复杂的声学环 境中提高语音清晰度。此外,它还可以作为其他语音处理任务(如语音识别和说话人识别)的重要预处理方法。 为了应对当前的文献综述往往只关注特定的架构设计或孤立的学习方法,导致对这个快速发展的领域的理解碎片化的现实情况, 清华大学、 青海大学、 南京大 学、 南方科技大学、 中国科学院大学、 字节跳动 的研究者 们全面调研了该领域的发展和最前沿的研究方法,在 深度学习方法、模 型 架 构、研究主题、评测指 标、数据集、工具平台、模型效 果比较、未来挑 战 等多个维度,撰写了一项统一、全面的 综述论文 ,对 200 余篇 代表性论文进行了系统归纳和分析。 | Survey | Year | DL | Arch | Topics | Eval | Data | Platforms | Results | Challenges | | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | | Wang an ...
IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
机器之心· 2025-09-03 00:44
本文的共同第一作者为新加坡国立大学博士生陈浩楠,南京大学研究助理 / 本科生李骏骁和北京大学博士吴睿海。合作者为刘益伟、侯懿文、徐志轩、郭京翔、高 崇凯、卫振宇、许申思、黄嘉祺。通讯作者为新加坡国立大学计算机学院助理教授邵林,研究方向为机器人和人工智能。 机器人对可形变物体的操作(Deformable Object Manipulation, DOM),是衡量通用机器人智能水平的关键指标之一。与刚体操作不同,衣物、绳索、食物等物体 的形态不固定,其状态空间维度极高,且物理交互过程呈现出复杂的非线性动力学特性,为感知、规划和控制带来了巨大挑战。 传统的服装折叠方法往往依赖于预定义的关键点或演示数据 [1, 2],这严重限制了它们在不同服装类别间的泛化能力。现有研究大多采用基于规则的启发式方法或 依赖人工演示的学习方式,这些方法在面对多样化的服装类型和用户指令时表现出明显的局限性。 近年来,随着基础模型在计算机视觉和自然语言处理领域的巨大成功,研究者们开始探索将这些先进技术应用于机器人操作任务 [3]。视觉和语言引导的机器人操 作已成为当前研究的热点,它能够让机器人理解自然语言指令并执行相应的操作任务。然而,在可 ...
刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
机器之心· 2025-09-03 00:44
机器之心报道 这也是目前科技行业第二大规模的私募融资,仅次于 2025 年 3 月 OpenAI 历史性的 400 亿美元融资。 这最新一轮融资为 Anthropic 的 F 轮融资,由 Iconiq、富达管理研究公司 (Fidelity Management & Research Co.) 和光速创投 (Lightspeed Venture Partners) 领投。 Anthropic 表示,Altimeter、General Catalyst 和 Coatue 等其他多方投资者也参与其中。 Anthropic 财务总监 Krishna Rao 在声明中表示:「此次融资表明投资者对我们财务业绩的极大信心,并展现了他们与我们合作的力度,这将继续推动我们前所未有 的增长。」 自 2023 年 3 月推出 AI 助手 Claude 以来,Anthropic 的估值一路飙升。 编辑:Panda Anthropic 宣布已经完成了新一轮 130 亿 美元融资,投后估值达 1830 亿 美元,约为这家人工智能初创公司 3 月份上次融资时的三倍。 2025 年初,即推出 Claude 不到两年,Anthropic 的运 ...
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
机器之心· 2025-09-02 09:33
机器之心报道 编辑:Panda 在这场以大型语言模型(LLM)为核心的 AI 浪潮中,苹果似乎一直保持着低调,很少出现在技术报道的前沿。尽管如此,时不时地,该公司也能拿出一些非常亮 眼的研究成果,比如能在 iPhone 上直接运行的高效视觉语言模型 FastVLM 。 近日,苹果与牛津大学和香港城市大学合作的一项新研究吸引了不少关注。其中提出了一种名为 BED-LLM 的新方法,能让 AI 解决问题的能力直接提升 6.5 倍 (成功率从 14% 暴增至 91%),而整个过程无需微调或重新训练,直接在当前模型上运行即可。 而实现这一突破的关键,便是 让 AI 学会问出完美的问题 。 那么,究竟该如何做到这一点呢? 论文标题:BED-LLM: Intelligent Information Gathering with LLMs and Bayesian Experimental Design 论文地址:https://arxiv.org/abs/2508.21184 这要从 LLM 的一个不足之处说起,即难以智能且自适应的方式主动从用户或外部环境中获取信息。这就像是 LLM 的「多轮遗忘症」。 具体而言,虽然现 ...
开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
机器之心· 2025-09-02 09:33
Core Viewpoint - The article highlights the launch of the "Autumn Computing Power Gratitude Return" campaign by Yingbo Cloud Platform, aimed at supporting educators and students during the new academic season and Teacher's Day with various promotional offers and discounts on computing power services [1]. Group 1: Promotional Activities - Activity 1: "Back to School Surprise Gifts" offers low prices for computing power, with rates as low as 0.88 yuan per card hour for the 4090 model during the promotional period from September 1 to September 30 [6]. - Activity 2: "Teacher's Day Exclusive Benefits" includes a free 50 yuan computing power voucher for new users upon registration and verification, along with various rebate offers for first-time and subsequent top-ups [7][8]. - The promotional highlights include significant discounts on card hour prices, such as the A800 model reduced from 6.39 yuan to 4.92 yuan, and the H800 model from 13.99 yuan to 10.76 yuan [9]. Group 2: Platform Features - Yingbo Cloud Platform utilizes a cloud-native architecture that supports container instances with rapid start-stop capabilities and fine-grained billing, allowing users to pay only for what they use, thus reducing computing costs for schools and students [11]. - The platform supports GPU+CPU mixed clusters, InfiniBand high-speed networking, and enterprise-level parallel storage, catering to needs for model training, algorithm validation, and distributed computing [11]. - Yingbo Cloud offers a dedicated booking section for educators to reserve computing power in advance, ensuring stable operation for classes and research training, along with flexible resource allocation options [11]. Group 3: Collaboration and Future Plans - Yingbo Cloud is actively assisting multiple universities and research institutions in AI research projects and is expanding its AI course teaching partnerships for the fall of 2025 [12]. - The platform invites more universities to join the "AI Course Partner Program," encouraging collaboration in AI education and research [12].
Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
机器之心· 2025-09-02 06:32
机器之心报道 编辑:泽南、Panda AI 也要「考古」式科研? 人工智能的「第一性原理」扩展定律(Scaling Laws),把模型性能与算力等资源投入联系在了一起,是如今人们构建更先进大模型重要的参考标尺。 有关扩展定律的起源,存在很多种说法,有人认为是 2020 年 OpenAI 提出的,有人认为是 2017 年百度发现的,详情可参阅我们之前的报道《 遗憾不?原来百度 2017 年就研究过 Scaling Law,连 Anthropic CEO 灵感都来自百度 》。 前些天,康奈尔大学博士生、Meta 研究员 Jack Morris 发推称 Scaling Law 的真正探索者其实是贝尔实验室,这又进一步将历史向前推到了 1993 年。 他进一步解释说,这篇论文其实是一篇 NeurIPS 论文。贝尔实验室的研究者「在不同大小的数据集、不同大小的模型上训练了分类器并拟合了幂律」。这让 Morris 不禁感叹:「不敢相信这已经是 32 年前的事了。」 近日,OpenAI 联合创始人、总裁 Greg Brockman 也转发了这一消息,并表示这些结果跨越了多个数量级和几十年的时间,经历了时间的考验,可以说揭示 ...
告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
机器之心· 2025-09-02 06:32
大语言模型通过 CoT 已具备强大的数学推理能力,而 Beam Search、DVTS 等测试时扩展(Test-Time Scaling, TTS)方法可通过分配额外计算资源进 一步提升准确性。然而,现有方法存在两大关键缺陷:路径同质化(推理路径趋同)和中间结果利用不足(大量高质量推理分支被丢弃)。 为解决这些问题,华为诺亚方舟实验室联合香港中文大学等机构的研究人员提出逐步推理检查点分析(SRCA)框架 —— 在推理步骤间引入 "检查点",并 集成两大核心策略:(1)答案聚类搜索(Answer-Clustered Search):根据中间检查点答案对推理路径进行分组,在保证质量的同时维持路径多样性; (2)检查点候选增强(Checkpoint Candidate Augmentation):利用所有中间答案辅助最终决策。 实验结果表明,在多个数学数据集上,如 MATH500 和 OlympiadBench,SRCA 相较于现有 TTS 方法,推理准确性均有提升。该论文已被 EMNLP 2025 接收。 论文题目:Stepwise Reasoning Checkpoint Analysis: A Test Ti ...
DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
机器之心· 2025-09-02 03:44
| 机器之心报道 | | --- | | 编辑:杜伟、+0 | 这几天,一篇关于向量嵌入(Vector Embeddings)局限性的论文在 AlphaXiv 上爆火,热度飙升到了近 9000。 要理解这篇论文的重要性,我们先简单回顾一下什么是向量嵌入。 图源: veaviate 多年以来,嵌入主要用于「检索」任务,例如搜索引擎中的相似文档查找,或推荐系统中的个性化推荐。随着大模型技术的发展,嵌入的应用开始拓展到推理、 指令遵循、编程等更复杂的任务。这些新兴需求,推动着嵌入技术朝着能处理任何查询、任何相关性定义的方向演进。 然而,先前的研究已经指出了向量嵌入的理论局限性。它的本质,是把一个高维度、复杂的概念(比如「爱」,可能包含亲情、爱情、友情、奉献、占有等无数 面向)强行压缩成一串固定长度的向量。这个过程不可避免地丢失信息,就像三维苹果被拍成二维照片 —— 无论照片多清晰,你都无法从中还原出它的重量、气 味等属性。 过去几年,业界普遍认为这种理论困难可以通过更好的训练数据和更大的模型来克服。这就是过去几年以 OpenAI 为代表的公司所遵循的「大力出奇迹」(Scaling Laws)的哲学。 从 GPT-2 ...