Workflow
具身智能之心
icon
Search documents
港科大智能建造实验室诚招博士后/博士生/研究助理(机器人方向)
具身智能之心· 2025-06-20 00:44
作者丨 HKUST BIM Lab 编辑丨 港科大智能建造实验室 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 郑展鹏教授在国际期刊和会议上已发表 360 余篇论文,总引用超过 18,000 余次,h-index达到 76 (数据截至谷歌学术2025年6月),入选斯坦福大学2024年 全球前2% 顶尖科学家榜单中的 "终身科学影响力榜单" 和 "年度影响力榜单" , 并获得buildingSMART国际openBIM大奖,及 日内瓦国际发明展金奖等。 招 募 方 向 方向一:多旋翼无人机的开发和应用 -- 招募岗位: 博士后 ( Postdoc) , 博士生 (PhD) 或研究助理 (RA) 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有 你想要的。 导 师 信 息 郑展鹏教授 (Prof. Jack C.P. Cheng) https://facultyprofiles.hkust.edu.hk/profiles.php?profile=jack-chin-pang-cheng-cejcheng 郑展鹏教 ...
【圆桌正当时】机器人不能没有方向盘,你的遥操够丝滑吗?
具身智能之心· 2025-06-20 00:44
点击下方 卡片 ,关注" 具身智能之心 "公众号 >>直播和内容获取转到 → 具身智能之心知识星球 它的商业实现除了一杠到底的全无人自动驾驶方案还需要一个辅助驾驶的渐进式落地方案!这个 世界需要一个面向人类更好操控机器人的ROS3.0,一个具身机器人的全新的操作系统! 所以,让我们来聊遥操吧! 遥操1.0 圆桌嘉宾简介 和知乎技术大V、格灵深瞳、智元机器人、灵御智能一起唠嗑式聊遥操1.0 圆桌嘉宾:赵仲夏 格灵深瞳算法总监 北京大学和智源研究院访问学者(小红书&知乎id:夏染) 圆桌嘉宾:智元机器人遥操负责人 王文灏 圆桌嘉宾:清华大学自动化系副教授,灵御智能首席科学家 莫一林(知乎ID:莫一林) 圆桌主持人:知乎大V,沃尔沃哲晰软件(Zenseact)深度学习负责人 刘斯坦 圆桌主持人:具身智能之心 Gloria 我们会重点聊到: 本场圆桌聊些什么 遥操不是一个新的技术,具身也不是一个新的概念! 具身智能概念诞生于1950年,而在70多年后大放异彩,大放异彩的与其说是具身智能的概念,不 如说是Robot Learning这个学科,这一波具身智能发展的本质是从规则驱动的范式到数据驱动的范 式的变化, 一如AI ...
直击CVPR现场:中国玩家展商面前人从众,腾讯40+篇接收论文亮眼
具身智能之心· 2025-06-18 10:41
作者丨 量子位 编辑丨 量子位 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 CVPR 2025落下帷幕,这次关注度和社交参与感,非常深度了。 比如随手抓住一只何恺明,直接变成追星现场。 在以谷歌/Meta等国际巨头为主导的展区里,中国企业规模创纪录,像腾讯、字节等大展区里面人从众。 展台面前排队体验的技术Demo,妥妥都是技术风向标~ 每一年被CVPR接收的论文大家都会关注,因为它们一定代表着最最前沿的技术风向。尤其是获得了最佳论文奖项的成果,那就得好好拜读一 下。 如果你的论文能被CVPR接收,相当于受到非常大的认可。因此相关从业者一有机会都想冲一波,万一就被录用了呢。 总结下来,有这样几个有意思的发现。 首先, 多模态、3D生成 是此次论文接收和现场研讨的热门方向,尤其像3D生成是亮点,背后高斯泼溅技术成为此次论文标题出现次数最多 的前五关键词之一。 其次, 对于基础模型的讨论远比以往更加深入,并且延伸到了产业落地 。具身智能、机器人AI在Wo ...
工业界和学术界在具身智能数据采集上有哪些方案?
具身智能之心· 2025-06-18 10:41
点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 具身智能的数据采集方案有哪些? 具身领域,机器人运动控制大部分都是用 RL 进行训练,而机械臂操作任务一般使用模仿学习方 式。其中数据采集部分则成为了核心,直接决定了后期模型的性能。今天我们一起看看有哪些数据 采集方式,以及优缺点。所有内容出自具身智能之心知识星球,欢迎和近200家具身公司和机构一起 交流。 3)合成数据 不依赖本体,采集成本低,但相关前处理较为麻烦。需要搭建和真实场景类似的仿真环境,需要处 理sim2real和real2sim问题。 4)互联网数据 采集方式 1)遥操采集 遥操采集依赖本体,成本较高。但前处理和后处理较为简单,质量也最高。 2)开放场景采集 不依赖于本体,需要一定的前处理后处理。采集成本低,不受限于机械臂可达的环境,一次采集后 续可以映射到很多本体上。但采集数据和真实部署存在一定gap,传感器信息可能不全。 互联 ...
ForceVLA:通过力感知MoE增强接触丰富操作的VLA模型
具身智能之心· 2025-06-18 10:41
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Jiawen Yu等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 研究背景与问题提出 在机器人操作领域,视觉-语言-动作(VLA)模型通过利用预训练的视觉和语言表示,推动了通用机器人 操作的发展。然而,这些模型在处理需要涉及力的精细控制的接触丰富任务时,尤其是在视觉遮挡或动态 不确定性情况下,表现出明显的局限性。现有的VLA模型严重依赖视觉和语言线索,往往忽略了力传感这 一对于精确物理交互至关重要的模态。 人类在操作过程中会自然地整合触觉和本体感受反馈来调整操作策略,但当前的VLA模型在面对插入、工 具使用或装配等任务时,经常在遮挡或视觉条件较差的情况下表现不佳,导致行为脆弱或任务失败。此 外,不同任务阶段对力的要求也不同,如精细抓取、受控插入和顺应性表面接触等,每个阶段都需要不同 形式的力调制,而现有方法缺乏感知和适应这些动态变化的机制。 核心创新点 (一)ForceVLA框架 ...
还不知道发什么方向论文?别人已经投稿CCF-A了......
具身智能之心· 2025-06-18 03:03
辅导老师介绍 老师均在CVPR、ICCV、ECCV、ICLR、RSS、ICML、ICRA等顶级会议上发表论文,有较丰富的 指导经验。 学员要求 自带一份简历,学校背景:国内TOP100高校,国外QS200以内; 具身智能之心论文辅导正式推出啦!去年的成果还算不错,几个同学中了CVPR和ICRA等会议, 今年和老师们沟通过后,准备继续辅导几名同学冲下顶会,感兴趣的同学可以咨询,辅导方向如 下。 主要方向 更多咨询 多模态大模型,VLA、机器人导航、机器人抓取、具身泛化、具身合成数据、端到端具身智能 体、3DGS等方向; 详细内容欢迎添加微信:oooops-life,做进一步了解。 ...
从扭秧歌到跑半马:机器人离「iPhone时刻」还有多远?
具身智能之心· 2025-06-17 12:53
作者丨 机器之心 编辑丨 机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 从春晚舞台上扭秧歌、转手绢,到稳健完整跑完半程马拉松…… 过去半年,一系列炫酷的表演,把人们对 机器人的认知从想象拉进了现实。 但当 AI 圈、车圈、互联网圈大佬们纷纷跻身到具身智能时,每个人都绕不开以下几个灵魂拷问:具身智能 还有哪些技术瓶颈?到底怎么落地?应该先从哪些场景开始落地?要解决用户哪些真实需求?能够做到怎 样的量产成本…… 在行业的「iPhone 时刻」真正到来前,没有人能够精准给出上述问题的全部答案。 把创新技术转化为具有商业价值的实际产品,固然需要长期的探索实践。如何尽可能缩短这条探索路径的 周期、降低成本,反而是现在具身智能赛道玩家更加关注的话题。 去年以来,面向具身智能机器人的计算开发平台,成为国内外平台型企业争相布局的全新赛道。英伟达推 出 Jetson Thor,高通、英特尔紧随其后。在国内,脱胎于地平线的地瓜机器人,去年亮相的 RDK S100 算控 一体化开发者套件也在本月正式发布。所有企业的目标只有一个,「征服」每一个机器人开发者和厂商。 在一众产 ...
正在筹划做一个万人的具身社区!
具身智能之心· 2025-06-17 12:53
这几天刚和团队小伙伴沟通完后期工作建设,探讨究竟要做一个什么样的具身社区?其中一个答 案比较符合我们的思路,那就是一个能够凝聚行业人群、遇到问题能够快速响应、影响到整个行 业的地方。 我们目标是3年内打造一个万人聚集的具身社区,这里也非常欢迎优秀的同学加入我们 (目前已经 有华为天才少年、具身领域研究前沿的几个大佬加入)。 我们和多家具身公司搭建了学术+产品 +招聘完整的桥梁和链路,同时内部在教研板块也基本形成了闭环(课程 + 硬件 + 问答)。社区里 也能看到很多最新的行业观点、技术输出。现在本体是怎么样的?有哪些不足?数据采集的成功 率和有效率怎么提升?sim2real怎么做的有效点?这些都是我们一直关注的。 前面一直在想怎么帮助刚入门的小白快速收拢技术栈,社区内部也为大家整理了一系列配套内 容,完整的入门路线。 已经从事相关研究的同学,我们也给大家提供了很多有价值的产业体系和项目方案。 还有源源不断的求职、岗位分享哦,欢迎和我们一起打造完整的具身生态。 具身智能之心知识星球 社区创建的出发点是给大家提供一个具身相关的技术交流平台,交流学术和工程上的问题。星球 内部的成员来自国内外知名高校实验室、具身相关 ...
迈向通用具身智能:具身智能的综述与发展路线
具身智能之心· 2025-06-17 12:53
作者丨 视觉语言导航 编辑丨 视觉语言导航 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有 你想要的。 主要贡献 研究背景 具身AGI的定义 : 论文将具身AGI定义为能够以人类水平的熟练度完成多样化、开放式现实世界任务的具身AI系统,强调 其人类交互能力和任务执行能力。 通用具身智能路线 现状 : 现有的具身AI模型(如视觉-语言-动作模型,VLA)大多仅支持视觉和语言输入,并且输出仅限于动作 空间。 挑战 : 类人认知能力不足 论文提出了一个从L1到L5的五级路线图,用于衡量和指导具身AGI的发展,每个级别基于四个核心维度:模 态(Modalities)、类人认知能力(Humanoid Cognitive Abilities)、实时响应能力(Real-time Responsiveness)和泛化能力(Generalization Capability)。 | | | 作者: Yequan Wang , AixinSun 单位: 北京人工智能研究院, 南洋理 ...