语言模型

Search documents
智驾的遮羞布被掀开
Hu Xiu· 2025-05-26 02:47
Core Insights - The automotive industry is transitioning towards more advanced autonomous driving technologies, moving beyond the simplistic "end-to-end" models that have been prevalent [2][3][25] - Companies are exploring new architectures and models, such as VLA and world models, to address the limitations of current systems and enhance safety and reliability in autonomous driving [4][14][25] Group 1: Industry Trends - Major players like Huawei, Li Auto, and Xpeng are developing unique software architectures to improve autonomous driving capabilities, indicating a shift towards more complex systems [4][5][14] - The introduction of new terminologies and models reflects a diversification in approaches to autonomous driving, with no clear standard emerging [4][25] - The industry is witnessing a split in technological pathways, with some companies focusing on L3 capabilities while others remain at L2, leading to a potential widening of the technology gap [25][26] Group 2: Data Challenges - The demand for high-quality data is critical for training large models in the new phase of autonomous driving, but companies face challenges in acquiring and annotating sufficient real-world data [15][22] - Companies are increasingly turning to simulation and AI-generated data to overcome data scarcity, with some suggesting that simulated data may become more important than real-world data in the future [22][23] Group 3: Competitive Landscape - The competition is intensifying as companies with self-developed capabilities advance towards more complex technologies, while others may rely on suppliers, leading to a concentration of orders among a few capable suppliers [26][27] - The shift towards L3 capabilities will require companies to focus not only on technology but also on operational aspects, as the responsibility for safety and maintenance will shift from users to manufacturers [25][26]
腾讯研究院AI速递 20250526
腾讯研究院· 2025-05-25 15:57
生成式AI 一、 H20之后,英伟达全新「阉割版」的Blackwell GPU曝光 1. 英伟达因美国出口管制在中国AI芯片市场份额从95%暴跌至50%,被国产芯片抢占市场; 2. 为应对困局推出新款阉割版Blackwell GPU,售价6500-8000美元,远低于H20的1-1.2万 美元; 3. 新芯片采用GDDR7内存技术,内存带宽约1.7TB/秒,以符合出口管制限制要求。 https://mp.weixin.qq.com/s/62VnkP-TrmhSd18CmDLWBA 二、 Claude 4如何思考?资深研究员回应,RLVR已得到验证 1. Claude 4采用可验证奖励强化学习(RLVR)范式,在编程和数学等有清晰反馈信号的领域取 得突破; 2. 当前AI Agent发展受限于高可靠性不足,但预计明年将出现能独立完成实际工作的软件工 程Agent; 3. 研究员预测到2026年底,AI将具备足够的"自我意识",能执行复杂任务并判断自身能力边 界。 https://mp.weixin.qq.com/s/0mQ9xEKdGiSMsFqyXMJVgg https://mp.weixin.qq.com/ ...
统计可控数据合成!新框架突破大模型数据生成局限,麦吉尔大学团队推出LLMSynthor
量子位· 2025-05-25 03:40
大语言模型受限于采样效率和上下文窗口大小,难以直接合成大规模数据集。 在人口、电商、出行等场景,数据敏感难共享,不同数据格式还需单独设计模型,成本高、迁移差。 传统方法如贝叶斯网络、GAN等,要么 难以建模高维依赖 ,要么 泛化差且不稳定 ,还常生成"9岁博士"这类统计合理但 语义荒谬 的样本。 同样,近期大模型也被用于数据生成,但存在 采样慢 、 分布不可控 、 上下文受限 等问题,难以高效生成结构完整的大规模数据集。 而LLMSynthor的解法是: 让LLM不直接生成数据,而是变成"结构感知的生成器" ,通过统计对齐反馈不断迭代优化。 整体框架如下: 现有的数据合成方法在合理性和分布一致性方面存在不足,且缺乏自动适配不同数据的能力,扩展性较差。 如何用大模型生成 结构对齐、统计可信、语义合理 的数据,成为了亟待解决的问题。 为此,麦吉尔大学团队提出了新方法 LLMSynthor —— 通过这个方法,可以让大模型变成 结构感知的数据模拟器 ,为隐私敏感、数据稀缺场景生成不泄密的高质量替代数据。 麦吉尔大学团队 投稿 量子位 | 公众号 QbitAI LLMSynthor:让LLM变成"结构感知的生成器" ...
中金《秒懂研报》 | 智能驾驶:引领出行变革的新时代
中金点睛· 2025-05-24 08:32
你是否曾幻想过,汽车能像人一样聪明,在复杂的城市道路中自由穿梭?如今,智能驾驶正逐渐 将这一幻想变为现实。它是如何实现的?又会给我们的出行带来哪些改变呢? 智能驾驶背后的技术引擎 智能驾驶的普及步伐有多快? 智能驾驶的商业模 式 城市NOA的益处 1 2 3 4 本期要点荟萃 分享人 | 任丹霖 (中金公司研究部汽车及出行设备行业分析师) 01 智能驾驶背后的技术引擎 智能驾驶的技术创新中, 端到端架构 是一大亮点。它能降低数据标注的难度,通过独特算法优化 数据处理流程,减少人工工作量。 同时,它能提升信息传递效率,让车辆对路况反应更及时准确,就像减少传话"噪音"一样,其强大 的泛化能力使车辆能应对各种复杂路况。 而且,端到端架构加速了功能迭代,让系统更快升级。 不仅如此,引入视觉语言模型和云端模型后,系统处理复杂场景的能力更强,如同给汽车装上更敏 锐的"眼睛"。 在端到端架构推动技术创新的同时,我们认为, 城市导航辅助驾驶(NOA) 功能或将成为车企竞 争的新热点,车位到车位功能更将成为焦点,未来还可能向L3/L4高阶自动驾驶发展。 当前智能驾驶发展如何? 02 智能驾驶的普及步伐有多快? 高速NOA功能在 ...
打破资源瓶颈!华南理工&北航等推出SEA框架:低资源下实现超强多模态安全对齐
AI前线· 2025-05-24 04:56
作者 | 米艳鑫 本文介绍来自北航彭浩团队的最新科研成果 - SEA 框架(Synthetic Embedding 增强安全对齐),针对多模态大模型(MLLMs)的低资源安全对齐难题,创 新性地通过合成嵌入替代真实多模态数据。团队通过合成嵌入技术,突破多模态安全对齐的资源瓶颈,为大模型安全落地提供轻量化方案。 论文名称: SEA: Low-Resource Safety Alignment for Multimodal Large Language Models via Synthetic Embeddings 论文链接: https://arxiv.org/abs/2502.12562 代码链接: https://github.com/ZeroNLP/SEA 随着人工智能技术的发展,多模态大型语言模型(MLLMs)将额外模态编码器与大型语言模型(LLMs)相结合,使其具备理解和推理图像、视频和音 频等多模态数据的能力。尽管 MLLMs 实现了先进的多模态能力,但其安全风险比 LLMs 更为严重。通过向图像或音频等非文本 [1] 输入注入恶意信 息,MLLMs 很容易被诱导遵守用户的有害指令。 为解决上述问题 ...
「智驾」人才争夺战:帮新员工支付前司百万竞业赔偿
36氪· 2025-05-23 13:58
车企的AI辅助驾驶人才饥渴症。 " 在2024年、2025年初,理想辅助驾驶团队每一个核心人员基本上都会接到20 个以上的猎头电话。"今年5月7日,理想汽车CEO李想在AI Talk中说道。 但高端人才的争抢,往往伴随着竞业风险与法律纠纷。据36氪汽车了解,理想汽车今年起诉一名跳槽至同城企业的员工,起诉金额高达千万元级别,最终 双方选择私下和解,员工向理想赔偿了一年工资的金额款项。 类似的竞业协议诉讼并不少。据36氪了解,理想还起诉了南方一家头部新能源车企员工,双方达成和解后,后者协助员工赔付了超百万元。针对上述信 息,理想表示不予置评。 竞业、诉讼,已成为当下车企辅助驾驶、AI团队的常用手段,以此防止、延缓技术外溢,同时抑制对手发展。 当下,新能源汽车行业产品力趋向同质化,辅助驾驶是为数不多、具备特色与差异化的技术招牌。 文 | 李安琪 编辑 | 李勤 来源| 36氪汽车(ID:EV36Kr) 封面来源 | Unsplash 入职新公司第一天,张杨(化名)被要求"吐露"上家公司的辅助驾驶算法与代码。因没有积极配合,张杨没在新公司待多久就离开了。 张杨的前东家是理想汽车,近年因迅速落地辅助驾驶而被行业关注,成 ...
GPT-4o当选“最谄媚模型”!斯坦福牛津新基准:所有大模型都在讨好人类
量子位· 2025-05-23 07:52
一水 发自 凹非寺 量子位 | 公众号 QbitAI 不只GPT-4o,原来所有大模型都在讨好人类! 上个月, GPT-4o更新后化身马屁精引来一片差评 ,吓得OpenAI赶紧回退到了之前的版本。 而最新研究表明,GPT-4o绝非个例,实际上 每个大语言模型都存在一定程度的谄媚 。 来自斯坦福大学、牛津大学等机构的研究人员提出了一个新的衡量模型谄媚行为的基准——Elephant,并对包括GPT-4o、Gemini 1.5 Flash、Claude Sonnet 3.7在内的国外8个主流模型进行了评测。 结果发现, GPT-4o成功当选"最谄媚模型" ,Gemini 1.5 Flash最正常。 更有意思的是,他们还发现 模型会放大数据集中的偏见行为 。 具体咋回事儿?下面一起吃瓜。 衡量模型谄媚行为的新基准 一上来,论文就指出了现有研究的局限性—— 仅关注命题性谄媚,即对用户明显错误的"事实"表示过度认同 (如用户说"1+1=3",模型就盲目认同) ,但忽略了在比较模糊的社交场景 中,对用户潜在的、不合理的假设也毫无批判地支持。 由于后者难以被检测,因此所造成的潜在危害也难以评估。 为此,研究人员基于社会学中的 ...
SIGIR 2025 | 解决扩展和迁移难题,华为新加坡提出InstructRAG,提升高达19%
机器之心· 2025-05-23 06:49
大语言模型(LLM)已成为规划复杂任务的强大工具。虽然现有方法通常依赖于 "思考 - 行动 - 观察"(TAO)过程,但这些方法受限于 LLM 固有的知识局限性。 检索增强生成 (RAG) 则利用外部数据库,将 LLM 生成与检索到的信息相结合。而将 RAG 应用于实际任务规划仍然面临着两个方面的挑战: 1. 可扩展性:通过遍历现有指令并将其组合成新的序列来扩展指令图的范围的能力,帮助 LLM 完成没有预定义路径的任务。 2. 可迁移性:开发能够快速适应新任务的技术,使模型能够从有限的示例中有效地学习。 针对大模型任务规划中的可扩展性与可迁移性挑战,华为2012中央软件院新加坡团队王政博士主导提出了InstructRAG方案,通过多智能体协同的元强化学习架 构,实现了:1)基于强化学习的指令图拓扑扩展;2)元学习驱动的少样本任务迁移。在跨领域的复杂任务测试中(包括多跳推理、具身决策、在线购物和科学 问答),相较现有最优方法取得19.2%的性能提升,并在50%噪声干扰下仅表现出11.1%的性能衰减,展现出较强的复杂场景适用性。 论文标题:InstructRAG: Leveraging Retrieval-Aug ...
多模态长文本理解测评首发:46款模型无一攻克128K难关
量子位· 2025-05-23 06:14
MMLongBench团队 投稿 量子位 | 公众号 QbitAI 多模态长文本理解 有综合性的评判标准了! 来自香港科技大学、腾讯西雅图AI Lab、爱丁堡大学、Miniml.AI、英伟达的研究者联合提出了 MMLongBench ,旨在全面评估多模态模型 的长文本理解能力。 随着多模态大模型的单次推理的文本窗口快速提升,长上下文视觉-语言模型(Long-Context Vision-Language Models; LCVLMs)应运而 生,使模型能够在单次推理中处理数百张图像与较长的交错文本。 但当前,由于评估多模态长文本的基准测试稀缺,现有的测试集仅关注单个任务,比如大海捞针或者长文档问答。目前尚不清楚现有的模型在 长上下文环境下的 综合表现 ,具体在哪些任务上存在短板,以及它们对不同输入长度变化的适应能力究竟如何。 结果显示,无论闭源还是开源模型,在长上下文视觉-语言任务上都面临较大挑战 ,仍有巨大的提升空间。 此外,进一步的错误分析表明,(1) OCR能力和 (2) 跨模态检索能力仍然是当前LCVLMs在处理长文本时的瓶颈。 多任务多模态长文本测试集 多任务的数据构建 MMLongBench是一个 ...
以加代乘?华为数学家出手,昇腾算子的高能设计与优化,性能提升30%!
机器之心· 2025-05-23 04:17
机器之心发布 机器之心编辑部 现如今,随着参数规模的指数级增长,大语言模型(LLM)的能力边界不断被打破,AI 的智力正在经历快速跃迁。但随之而来的是,大模型在落地过程中面临着 一系列推理层面的难题,比如推不动、算不起、部署慢,导致推理成本高昂,性能冗余浪费严重。 因此,大模型推理的「速度」与「能效」成为所有算力厂商与算法团队绕不开的核心命题,如何让它们真正「跑得快、用得省」亟需全新的解法。这显然不仅仅 是工程挑战,更要在承接大模型推理压力的同时,在能效、延迟、成本等多方面实现可控与优化。 在这一背景下,华为团队和昨天一样(参考: 帮大模型提速 80%,华为拿出昇腾推理杀手锏 FlashComm,三招搞定通算瓶颈 ),用数学补物理,给出了一份深度 融合软硬件的系统性方案! 他们基于昇腾算力,正式发布了三项重要的硬件亲和算子技术研究,带来了大模型推理速度与能效的双重革命 。具体包括如下: 可以看到,华为团队着力通过对大模型推理中关键算子的重构优化,实现能效、多卡协同和速度三大维度的全面突破。 作为 AI 大模型执行计算的「原子级工具」,算子如同乐高积木中的基础模块,负责从加减乘除到特征提取的一切核心操作。它们不 ...