具身智能之心

Search documents
合伙人招募!和我们一起运营这个具身社区吧~
具身智能之心· 2025-09-21 10:00
回想当时从0开始写技术分享,到现在各个模块逐渐铺开完善。一个社区的运营,离不开大家的鼎力支持, 具身智能之心期望能够在这场领域发展过程中贡献自己的力量,而不是仅仅局限于媒体的角色,致力于成 为一个真的能给行业带来价值的平台。 少数人的力量始终是有限的,我们真诚邀请那些对具身领域产生影响力的大佬。和我们一起在开源项目复 现、咨询服务、课程研发、学科共建、硬件研发等多个方向展开合作。 11)课程开发 合作内容 和我们一起搭建能让更多初学者受益的课程,推动行业向前发展。包括C端、企业培训、高校学科建设。 22)硬件研发 和我们一起搭建好用、性价比高的具身科研平台,让每个开发者都能用得起,每个初学者都能用得顺利。 转眼快到下半年了,总感觉今年的规划完不成了,和年初的预期差异较大,因为真的有太多事情值得去做 了。 一起承接B端和C端在具身数据、本体、算法和部署等方面的咨询,助力产业升级转型、促进行业人才发 展。 在企业就职的同学也不用担心啦,我们将充分保护个人隐私。 岗位要求 我们期望您具备一定的领域工程经验,或具备博士及以上的title(手握顶会的大牛)。全职和兼职均可哦~ 待遇说明 我们提供行业有竞争力的报酬(详细 ...
灵御智能遥操TeleAvatar机器人开始交付啦!
具身智能之心· 2025-09-21 04:01
以下文章来源于灵御智能 ,作者灵御智能 灵御智能 . 本公众号是北京灵御智能科技有限公司官方公众号 【北京,2025年9月15日】 —— 国内人工智能与机器人技术领域迎来重要里程碑。 北京灵御智能科技有限公司 (以下简称"灵御智能")今日宣布进行具 身智能遥操作机器人TeleAvatar的首批多客户交付。其中,首台TeleAvatar(型号001)正式交付 锡港沪机器人灵巧智能研究院 ,同时进行对多家战略客户 的首批陆续交付。这一重要进展标志着灵御智能在产品商业化及市场拓展方面取得了实质性突破。 首台交付,意义非凡 上午的交付仪式在灵御智能北京总部隆重举行。锡港沪机器人灵巧智能研究院技术总监许钦桓博士 作为研究院代表亲临现场,与灵御智能团队共同见证 了首台TeleAvatar(编号001)的启运时刻。双方代表在机器人前合影留念,记录下这一跨越地域的智能协作新开端。 灵御智能CEO金戈(左)与锡港沪机器人灵巧智能研究院技术总监许钦桓博士(右) 批量交付,彰显产业化实力 当日下午,灵御智能迎来了更具意义的时刻——进行了首批多台TeleAvatar机器人的陆续交付。此次交付涵盖了包括 上海玑域智能科技公司 在内的多 ...
具身领域的大模型基础部分,都在这里了......
具身智能之心· 2025-09-20 16:03
Core Viewpoint - The article emphasizes the importance of a comprehensive community for learning and sharing knowledge about large models, particularly in the fields of embodied AI and autonomous driving, highlighting the establishment of the "Large Model Heart Tech Knowledge Planet" as a platform for collaboration and technical exchange [1][3]. Group 1: Community and Learning Resources - The "Large Model Heart Tech" community aims to provide a platform for technical exchange related to large models, inviting experts from renowned universities and leading companies in the field [3][67]. - The community offers a detailed learning roadmap for various aspects of large models, including RAG, AI Agents, and multimodal models, making it suitable for beginners and advanced learners [4][43]. - Members can access a wealth of resources, including academic progress, industrial applications, job recommendations, and networking opportunities with industry leaders [7][70]. Group 2: Technical Roadmaps - The community has outlined specific learning paths for RAG, AI Agents, and multimodal large models, detailing subfields and applications to facilitate systematic learning [9][43]. - For RAG, the community provides resources on various subfields such as Graph RAG, Knowledge-Oriented RAG, and applications in AIGC [10][23]. - The AI Agent section includes comprehensive introductions, evaluations, and advancements in areas like multi-agent systems and self-evolving agents [25][39]. Group 3: Future Plans and Engagement - The community plans to host live sessions with industry experts, allowing members to engage with leading figures in academia and industry [66]. - There is a focus on job sharing and recruitment information to empower members in their career pursuits within the large model domain [70].
PhysicalAgent:迈向通用认知机器人的基础世界模型框架
具身智能之心· 2025-09-20 16:03
Core Viewpoint - The article discusses the development of a new robotic control framework called PhysicalAgent, which aims to overcome existing limitations in the field of robot manipulation by integrating iterative reasoning, diffusion video generation, and closed-loop execution [2][4]. Group 1: Key Challenges in Robotics - Current mainstream visual-language-action (VLM) models require task-specific fine-tuning, leading to a significant drop in robustness when switching robots or environments [2]. - World model-based methods depend on specially trained predictive models and carefully curated training data, limiting their generalizability [2]. Group 2: Framework Design and Principles - The PhysicalAgent framework separates perception and reasoning from specific robot forms, requiring only lightweight skeletal detection models for different robots, which minimizes computational costs and data requirements [4]. - The framework leverages pre-trained video generation models that understand physical processes and object interactions, allowing for quick integration without local training [4]. - It aligns human-like reasoning by generating visual representations of actions based on textual instructions, facilitating intuitive robot control [4]. Group 3: VLM's Grounding Reasoning Role - The VLM serves as the cognitive core of the framework, enabling grounding through multiple calls to achieve "instruction-environment-execution" rather than a single planning step [6]. - The framework innovatively reconstructs action generation as conditional video synthesis, moving away from traditional direct control strategy learning [6]. Group 4: Execution Process and Adaptation - The robot adaptation layer translates generated action videos into motor commands, which is the only part requiring robot-specific adaptation [6]. - The process includes task decomposition, contextual scene description, execution monitoring, and model independence, allowing for flexibility in model selection [6]. Group 5: Experimental Validation - Experiments validate the framework's cross-form and perception modality generalization, as well as the robustness of iterative execution [8]. - The first experiment demonstrated that the framework significantly outperformed task-specific baselines in success rates across different robotic platforms [12]. - The second experiment confirmed the robustness of the iterative "Perceive→Plan→Reason→Act" pipeline, achieving an 80% success rate across physical robots [13].
头部具身智能人形机器人公司最新估值/市值
具身智能之心· 2025-09-20 06:12
编辑丨具身智能之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有 你想要的。 头部具身智能人形机器人公司最新估值或市值一览。除了已上市公司外,这里展示的都是已完成或 正在交割的真实估值,未经实际交割、未获交易确认的估值均未列入,单位为人民币。注意,各公 司成立时间和融资阶段差异大。估值高低与技术、商业化水平不能简单划等号。 以下数字仅做参考,如有不足或者遗漏,欢迎后台留言。 Figure AI 2736亿 优必选 555亿 Sklid AI 324亿 Physical Intelligence 170亿 宇树科技 160亿 智元机器人 150亿 Apptronik 144亿 Field AI 144亿 Agility Robotics 126亿 云深处机器人 80亿 傅利叶机器人 80亿 乐聚机器人 80亿 World labs 70亿 Sanctuary AI 70亿 Boston Dynamics 70亿 银河通用 70亿 星海图 70亿 自变量 60亿 ...
英伟达50亿美元入股英特尔,将发布CPU+GPU合体芯片,大结局来了?
具身智能之心· 2025-09-19 16:04
编辑丨 机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 他们共同宣布,要把电脑上的 CPU 和 GPU 合成为超级 SoC。 周四晚间,英伟达收购 50 亿美元英特尔股份的新闻引爆了科技圈。 两家公司在 9 月 18 日同时发布公告,宣布达成长期战略合作。英伟达将投资 50 亿美元购买英特尔普通股,基于全新合作,两家公司将共同开发多代定制 数据中心和 PC 产品。 在具体内容上,两家公司将专注于利用 NVIDIA NVLink 无缝连接 NVIDIA 和 Intel 架构 —— 将英伟达的 AI 和加速计算优势与英特尔领先的 CPU、x86 生态系统相结合,为客户提供顶尖解决方案。 对于数据中心,英特尔将构建英伟达定制版 x86 CPU,英伟达会将其集成到其 AI 基础设施平台中并提供给市场。 在个人计算领域,英特尔将打造并向市场推出集成 RTX GPU 芯片组的 x86 系统级芯片 (SoC)。这些全新的 x86 RTX SoC 将为各种需 ...
从数采方案来看,具身数据的需求有哪些?
具身智能之心· 2025-09-19 16:04
点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨 具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 当前,具身智能已成为全球的新焦点,如何打造一个通用的本体和大脑是各个创业公司一直努力突破的,更是受到资本和产业界的高度关注。而数采作为基础模 块,是重中之重,好的数据更是很多算法取得效果的基础。 今天就为大家全面梳理下具备研发和产品力的数采领域相关公司,深入分析其技术特点、产品布局和应用场景,为公司提供行业全景图,助力战略决策和业务拓 展。 重点关注 :专注于数据采集设备与解决方案的企业,包括硬件采集设备、软件平台及整体解决方案。 国内公司 星海图 自研数采任务管理平台 :支持任务发布、上传、存储、审核等全流程 可视化管控,高效管理,无惧数据丢失! 一站式数据采集链路 :任务下发 → 采集 → 清洗 → 补采 → 压缩 → 上传 → 审核 → 标注 → 存储 兼容主流算法与格式 :输出格式:rosbag、ARIO、lerobot;适配模型:ACT ...
智源牵头举办的具身大模型挑战赛火热报名中!
具身智能之心· 2025-09-19 16:04
编辑丨 BAAI具身智能 点击下方 卡片 ,关注" 具身智能之心 "公众号 2025 第二届中关村具身智能机器人应用大赛 了解更多信息 欢迎大家踊跃报名参赛! 智源具身智能模型能力挑战赛火热报名中! 本届赛事以 「具身引智 · 应用未来」 为主题,打造一个 汇聚尖端技术与产业应用 的舞台。这里不仅是比拼模型实力的竞技场,更是展示创意与才华的舞台。让我们一起突破边界,提升模型能力,推动具身智能 走 出实验室,走进现实世界,创造真正的价值! 未来已来,等你出发! 指导教师荣誉:有机会获得"智源学者"身份,享受专项科研资金支持 10.23 - 10.24 11.02 - 11.16 11.17 - 11.18 决赛 初赛 真机调试与数据采集 资源支持 真机数据采集、标注一站式平台支持 充足的算力支持 机器人本体设备支持 智源专家全程技术指导 场地与环境保障 奖金与荣誉 单暴道奖金 优胜奖(第4-6名) 三等奖 2万 等奖 5万 二等奖 3万 学生选手福利:有机会获得直通智源研究院实习、入职机会 在智源,你将收获: 真机实战:人形机器人、高性能机械臂、移动操作平台等 顶级算力 & 自由科研:享用智源充足的算力与海量数 ...
NeurIPS 2025 | 人类认知对齐的CogVLA,突破VLA效率与性能瓶颈
具身智能之心· 2025-09-19 05:43
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Wei Li等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 本篇论文的工作已被 NeurIPS(Conference on Neural Information Processing Systems)2025 接收。 背景:从大模型到具身智能,面临效率困境与语义退化 视觉-语言-动作(VLA)研究在强大的预训练 VLM 所提供的丰富视觉与语言表征推动下,正快速发展。然而,将 VLM 输出的高维多模态特征对齐至连续动作空 间仍然计算开销巨大,限制了其大规模部署和实际应用。同时,现有的 VLA 加速方法往往忽视了跨越感知、语言对齐与动作解码的语义耦合,造成严重的跨模态 语义退化。 核心挑战:冗余感知与跨模态语义脱节 现有效率优化策略(如层跳过、早期退出)主要聚焦于 VLA 所使用的大语言模型内部的计算优化,忽视了视觉、语言与动作之间的语义耦合。这导致三个问题: 1. 感知冗余 :压缩后的 ...
智平方2026年大规模校园招聘来袭!具身算法/开发/仿真等
具身智能之心· 2025-09-19 00:03
点击下方 卡片 ,关注" 具身智能 之心 "公众号 最强AI 原创引领 · 中国端到端VLA技术的最早提出春, 发 布全球首个全域全身具身大模型 GOVLA · 国内唯一在多个真实场景实现大规模部 籍的具身智能企业 · 汽车制造、半导体、生物科技、公共服 务等头部客户流度合作 · 开源全球首个"异构输入+异步频率"VLA 模型Fis-VLA, 性能超越国际标杆30% · 全球唯二、国内唯一开源机器人模型的 创企,技术实力硬核验证 a可靠 xt -- 本 · 自研真通用智能机器人AlphaBot (爰 宝)系列,两年内迭代三代产品 ·一个机器人硬件形态 + 一个星座大模型, 真正实现多场景、多任务无缝切换 · 搭载GOVLA大模型,具备全域行动、 全身协同、长程索性与快速学习核心能力 最合理 窗小共赢 · 依托多场景共同牵引的统一技术平台, 打造可持续复利的智能服务 · 机器人应用产品经理 加入智平方, 成长开平厂 加入我们 你将获得 室与AGI最前沿 投入融合大模型、机器人学与多模态 感知的技术革命 直面真实世界不确定性,让算洁与物 理深度交互 爆发式虎长 压缩饼干式学习! 算洁、硬件、系统 全线打遍 与顶尖 ...