软硬件协同设计

Search documents
理想自动驾驶芯片最核心的是数据流架构与软硬件协同设计
理想TOP2· 2025-09-05 04:56
推理内容(再强调一下,观点与猜测可能是错误的,事实是经过仔细考证的): 理想自动驾驶芯片最核心的是数据流架构与软硬件协同设计,相当于一种很适合跑VLA的NPU芯 片。 按谢炎的说法,从项目立案到交付上车,要花三年左右时间,如果是明年上车的话,那应该是2023年 左右开始设计的,猜测理想VLA架构具体如何搭建思路可能主要在2024年下半年。 所有专门为加速神经网络计算而设计的芯片都可以叫NPU,它不像GPU那样追求通用性,而是把硬件 资源集中用于神经网络中最常见的运算,矩阵乘法与加法。NPU会在内部集成大量MAC(乘加单元), 采用数据流架构,让数据传输路径更短、更搞笑。 本文内核是一篇推理文,推理素材核心基于理想汽车CTO谢炎在25Q2电话会议上的表示,贾鹏在 GTC2025上介绍的理想VLA架构,各种关于TPU/NPU/Thor的介绍。 本文事实部分经过仔细考证,观点部分只能保证经过认真思考,不能保证一定正确。 本文得以成文,离不开一位群友的思路启发与交流。 参考资料: 理想贾鹏英伟达GTC讲VLA 1228字省流版/完整图文/完整视频 为什么Thor芯片要保留GPU,又有NPU? TPU是谷歌专门为期机器 ...
沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
机器之心· 2025-09-05 04:31
机器之心发布 为了破解这一痛点,华为近日发布了 专为昇腾端侧硬件打造的高性能语言模型 ——openPangu Embedded-1B 。该模型虽然只有 10 亿参数,却通过软硬件协同设 计显著降低推理延迟、提升资源利用率,并采用多阶段训练策略(包括从零预训练、课程学习式微调、离线 On-Policy 蒸馏、多源奖励强化学习)大幅增强各类任 务表现。 得益于多阶段训练与优化,openPangu Embedded-1B 在十亿参数的体量下实现了性能与效率的高度协同,成功将强大的大模型能力带到了端侧设备上,树立了「小 模型大能力」的新标杆。 评测成绩说明了一切,openPangu Embedded-1B 在多个权威基准上表现亮眼, 创下了 10 亿参数级别模型的全新 SOTA 纪录 。 模型的 整体平均分达到 63.90 ,不仅全面领先同类模型,甚至持平更大规模的 Qwen3-1.7B(63.69),充分体现了出色的参数效率。这表明,先进的训练与对齐方 法可以比单纯扩大模型规模更具成效。 机器之心编辑部 在端侧 AI 这个热门赛道,华为盘古大模型扔下了一颗 " 重磅炸弹" 。 如今,云端大模型已经能侃侃而谈、答疑解 ...
CoDesign 2025国际研讨会在大阪召开 共探高性能计算与AI融合新路径
Cai Jing Wang· 2025-07-18 04:22
Group 1 - The CoDesign 2025 International Symposium was successfully held in Osaka, Japan, focusing on the challenges of large-scale computing and big data, emphasizing the importance of hardware-software co-design for the development of high-performance computing (HPC) [1] - The conference highlighted four core areas: algorithms, application systems, system software and middleware, and hardware-software co-design architecture, covering key fields of high-performance and scalable computing [2] - Keynote speeches and technical presentations showcased cutting-edge research and developments, including the challenges of system fragmentation and the need for collaborative design between hardware and software [3] Group 2 - Roundtable discussions addressed the integration of HPC and AI, with experts sharing differing views on the future direction of computing architectures and the role of AI in scientific programming [4] - The pursuit of Zeta Scale computing was discussed, with experts identifying system reliability and power consumption as core obstacles to scaling [4] - The symposium provided a platform for global experts to share insights and reach consensus, which will significantly advance the integration of HPC and AI, addressing future challenges and opportunities in the computing field [4]