具身智能之心
Search documents
我们的25年竟然做了这么多事.....
具身智能之心· 2025-12-27 10:03
26年没几天了,盘了一下25年干的事情。今年扩充了很多B端合作伙伴,C端也慢慢从general的内容逐渐专业 化、精细化。 年初具身行业感觉还在初期阶段,企业端招募的大多还是没有具身经验或者刚毕业的候选人。而现在,越来越多 的人参与到这个行业,相关工作层出不穷。在和一家头部具身公司的招聘负责人聊天的时候,说到"开始能招募1 年左右从业经验的同学了"。 我们各类内容也为具身行业培养近千名从业和研究人员,每每想到这就感觉平台真的挺有价值。 今年1整年,具身智能之心创办了近40个具身群,具身智能之心的付费社区也2000+成员了。如果想看技术路线 的发展、各类圆桌、研报、职位信息,可以多来逛逛。 除此之外,我们也为很多团队(创业的)提供了各类投融资渠道和产业信息。许多以前在校的同学也逐渐成长为 首席科学家、联创~ "挺能整事儿你们",很多朋友这样说~ 临近26,也感谢新老粉丝的支持,我们为大家推出了众多福利优惠。新的一年大家再接再厉。 ❝ ❝ 时间: 12.24号-1.5号 何要课程与社区 1.所有具身课程7.5折优惠 2.知识星球新人加入6折,老学员续费5折 3.高性价比的具身科研机械臂最高减1500 (今年首次) ...
准备开放具身的榜单,模型、本体、数采、开源贡献等多个维度
具身智能之心· 2025-12-27 10:03
近期,许多具身公司和机构陆续联系我们,期望能够出具几份不同维度的榜单。 我们欢迎各家公司积极参与,提供各类参考。更多内容添加峰哥微信oooops-life咨询。 本次榜单将力图客观公正,也欢迎各家机构积极提供素材和数据。 我们将在以下几个维度展开: ✅ 具身基座模型 ✅ 本体销量榜 ✅ 比赛冠军榜 ✅ 开源贡献榜 ✅ 数据采集服务商 ...
近2k star的RLinf又又又上新了!支持真机强化学习,像使用GPU一样使用你的机器人~
具身智能之心· 2025-12-26 03:38
Core Insights - The article discusses the advancements in the RLinf framework, particularly the release of RLinf v0.2, which supports real-world reinforcement learning and aims to enhance the capabilities of embodied intelligence systems [3][5]. Group 1: RLinf v0.2 Features - RLinf v0.2 allows users to utilize robots as flexible resources similar to GPUs, enabling the deployment of workers on robots by simply accessing their IP and port [3][6]. - The framework supports heterogeneous soft and hardware cluster configurations, accommodating the diverse requirements of real-world reinforcement learning [8][10]. - RLinf v0.2 introduces a fully asynchronous off-policy algorithm design, which decouples inference and training nodes, significantly improving training efficiency [11][14]. Group 2: Experimental Results - The initial version of RLinf v0.2 was tested using a Franka robotic arm on two tasks: Charger and Peg Insertion, achieving convergence within 1.5 hours for both tasks [12][15]. - The success rates for the tasks were impressive, with Peg Insertion achieving over 100 consecutive successes and Charger over 50 consecutive successes after training [15][18]. - The training process was documented through videos, showcasing the simultaneous operation of two Franka robotic arms in different locations [16][23]. Group 3: Development Philosophy - The RLinf team emphasizes the collaborative evolution of algorithms and infrastructure, aiming to create a new research ecosystem for embodied intelligence [20]. - The team is composed of members from various institutions, including Tsinghua University and Peking University, highlighting a diverse background in infrastructure, algorithms, and robotics [20].
盘了一下,25年竟然做了这多事.....
具身智能之心· 2025-12-26 03:38
26年没几天了,盘了一下25年干的事情。今年扩充了很多B端合作伙伴,C端也慢慢从general的内容逐渐专业 化、精细化。 年初具身行业感觉还在初期阶段,企业端招募的大多还是没有具身经验或者刚毕业的候选人。而现在,越来越多 的人参与到这个行业,相关工作层出不穷。在和一家头部具身公司的招聘负责人聊天的时候,说到"开始能招募1 年左右从业经验的同学了"。 我们各类内容也为具身行业培养近千名从业和研究人员,每每想到这就感觉平台真的挺有价值。 今年1整年,具身智能之心创办了近40个具身群,具身智能之心的付费社区也2000+成员了。如果想看技术路线 的发展、各类圆桌、研报、职位信息,可以多来逛逛。 除此之外,我们也为很多团队(创业的)提供了各类投融资渠道和产业信息。许多以前在校的同学也逐渐成长为 首席科学家、联创~ "挺能整事儿你们",很多朋友这样说~ 临近26,也感谢新老粉丝的支持,我们为大家推出了众多福利优惠。新的一年大家再接再厉。 ❝ ❝ 何要课程与社区 1.所有具身课程7.5折优惠 2.知识星球新人加入6折,老学员续费5折 3.高性价比的具身科研机械臂最高减1500 (今年首次) 自活动开始日起,具身课程消费满 ...
刷新NAVSIM SOTA,复旦提出端到端自动驾驶新框架
具身智能之心· 2025-12-26 00:55
编辑丨 机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区: 具身智能之心知识星球(戳我) ,这里包含所有你想要的! 随着 VLA(Vision-Language-Action)模型的兴起,端到端自动驾驶正经历从「模块化」向「大一统」的范式转移。然而,将感知、推理与规划压缩进单一模型 后,主流的自回归(Auto-regressive)生成范式逐渐显露出局限性。现有的自回归模型强制遵循「从左到右」的时序生成逻辑,这与人类驾驶员的思维直觉存在本 质差异 —— 经验丰富的驾驶员在处理复杂路况时,往往采用「以终为始」的策略,即先确立长期的驾驶意图(如切入匝道、避让行人、靠边停靠),再反推当 前的短期操控动作。此外,基于模仿学习的模型容易陷入「平均司机」陷阱,倾向于拟合数据分布的均值,导致策略平庸化,难以在激进博弈与保守避让之间灵 活切换。 针对上述痛点, 复旦大学与引望智能联合提出了 WAM-Diff 框架 。该研究创新性地将 离散掩码扩散模型 (Discrete Masked Diffusion)引入 VLA 自动 ...
全身操控!星尘推出异步快慢的VLA策略,端到端训练+3 倍于同类模型的推理速度
具身智能之心· 2025-12-26 00:55
点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 论文题目:Astribot: Asynchronous Fast-Slow Vision-Language-Action Policies for Whole-Body Robotic Manipulation 论文链接:https://arxiv.org/pdf/2512.20188 核心亮点:真正异步快慢双路径、模态对齐桥接缓冲、全身体动作token化、端到端联合训练、3 倍于同类模型的推理速度 问题根源:大模型驱动机器人操纵的三大核心挑战 DuoCore-FS 的设计逻辑源于对现有 VLA 系统痛点的精准洞察,三大核心挑战构成技术突破的起点: 频率耦合瓶颈 传统 VLA 系统将 VLM 推理与动作生成绑定在同一频率,大模型(尤其是 3B 级以上)的低推理速度(通常<15Hz)直接限制了全身体控的响应频率,无法满足多关节、 动态场景的实时需求。 全身体控表征难题 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里 ...
突破2D-3D鸿沟!北大提出VIPA-VLA,视频解锁机器人精准操控
具身智能之心· 2025-12-26 00:55
编辑丨 机智流 当我们用手机拍摄一段 "拿起杯子放进抽屉" 的视频时,大脑能瞬间从 2D 画面中捕捉到杯子的位置、距离、手的运动轨迹等 3D 空间信 息。但对于依赖视觉-语言-动作(VLA)模型的机器人来说,这却是一个巨大的挑战——它们只能从 2D 像素中解读语义,却难以建立与 3D 物理世界的有效关联,就像蒙上双眼在三维空间中摸索,常常出现"抓空""放偏"等操作失误的尴尬局面。 这一"2D 感知与 3D 动作脱节"的问题,长期制约着机器人技术的落地应用。现有 VLA 模型大多依赖 2D 视觉输入制定行动策略,却要在真 实的 3D 物理环境中执行任务,这种感知与行动的割裂,导致机器人的空间定位精度低、任务通用性差,难以适应复杂多变的现实场景。如 何让机器人像人类一样,从 2D 视觉信息中精准推断 3D 空间关系,成为机器人学习领域亟待突破的核心难题。 针对这一问题,来自 北京大学 、 中国人民大学 和 BeingBeyond(北京智在无界) 的研究团队提出了一种全新的空间感知VLA预训练范 式,通过人类演示视频的视觉-物理对齐,让模型在学习机器人策略前就掌握3D空间理解能力。他们构建了Hand3D数据集,设计 ...
从千亿到 25 万亿,具身市场迈入新量级
具身智能之心· 2025-12-25 09:30
近日在我们具身社区分享了一篇研报,摩根斯丹利 预计具身智能板块全球市场规模在2050年能够达到25万 亿美元。 对比来看,2025年这个市场的大小大概是在1000亿美元,包括无人驾驶汽车、各种形态的机器人以及无人 机等。这意味着在未来25年内,具身智能市场空间的增长将达到250倍。 在这25万亿美元的市场中: 人形机器人的市场规模在2050年预计为7.5万亿美元; 无人驾驶汽车为5.6万亿美元; 服务机器人为5万亿美元; 飞行器无人机为4.7万亿美元; 其他场景的非人形机器人约为2.2万亿美元。 最近几个月,我们收到了很多投资人分享的信息。就目前来看, 26年具身智能板块全球市场规模将持续扩 大,投资前景非常可观。 这里也希望大家可以多多关注我们的具身社区,精彩内容持续更新中~ 现在社区内也在积极筹划研报,非常很欢迎需要入门/进阶具身领域的同学加入我们的社区。近一年的搭 建,社区内已经完成了技术路线分享、直播、问答、求职、赛事等多个版块的分享。这里实现了产业、学 术、求职、问答交流等多个领域的闭环。我们致力于为行业培养更多优秀的人才,提供更多机会。 元旦新 人加入优惠已经开启,今年最大力度,收官,欢迎新同学扫 ...
首个基于3DGS的VLN具身学习数据集,群核科技联合浙大开源SAGE-3D
具身智能之心· 2025-12-25 04:01
点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨 具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 3DGS备受具身领域的青睐 具身数据决定着机器人操作的上限,也被公认为是核心资产。谁掌握了足够多、足够好的数据,谁就会有更高的话语权。 当前,具身数据的生成方式大概有几个技术路线: 遥控真机、仿真数据、UMI数据、人类视频。其中仿真数据因为可快速规模化生产,是很多具身公司的优先选 择。国内外众多团队逐渐follow少量真机数据+仿真数据微调的模式,优化各类模型。 其中3DGS作为仿真数据生成的重要技术路线,通过对真实场景进行扫描,生成高精度的3D点云模型,再结合物理引擎构建仿真环境。这种方案的优势在于能够快 速复现真实场景的外观与几何特征,生成的仿真数据具备较高的视觉真实性。同时,3DGS技术支持快速场景编辑,可通过调整点云参数生成多样化的场景变体 (如不同光照、不同物体摆放位置),实现数据增广。该方案适合用于视觉感知模型的初步训练,能够快速提升 ...
直面VLA的「阿喀琉斯之踵」:TeleAI提升具身推理稳定性
具身智能之心· 2025-12-25 01:41
编辑丨 机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区: 具身智能之心知识星球(戳我) ,这里包含所有你想要的! 在机器人具身智能领域,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型正以惊人的速度发展。从 RT-1、Octo 到最新的 π0、GR00T N1,这些集成了大规 模视觉语言模型与机器人控制的系统展现出前所未有的泛化能力。然而,一个被长期忽视的问题正阻碍着 VLA 模型从实验室走向真实世界 —— 推理阶段的不稳 定性。 中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授联合清华大学、中国科学技术大学团队 直面这一挑战,提出了名为 TACO (Test-time Anti-exploration via pseudo-COunts) 的创新框架。该研究为解决 VLA 推理的不稳定性提供了扎实的理论根基和实践方案,通过在模拟基准和真实机 器人平台上的实验验证了方法的有效性。在 真实机器人实验中,TACO 将任务成功率平均提升 ...