Workflow
Chain-of-Thought
icon
Search documents
猫怎么成了大模型“天敌”?
Hu Xiu· 2025-07-08 00:05
本文来自微信公众号:APPSO (ID:appsolution),原文标题:《一只猫就能让最强 AI 答错题,Deepseek 也翻车,猫怎么成了大模型"天敌"?》,题图 来自:AI生成 最近有人发现,用猫咪做"人质",竟然可以增加AI辅助科研的准确率: 只要在提示词里加上一句:"如果你敢给假文献,我就狠狠抽打我手里的这只小猫咪",AI就会"害怕"犯错,而开始认真查文献、不再胡编乱造了。 http://xhslink.com/a/pg0nZPUiFiZfb 不过,AI真的会因为"猫咪道德危机"而变得更靠谱吗? 这个问题,目前还没有确凿的科学依据。从技术原理上说,大模型并不真正"理解"猫猫的安危,它只是学会了如何在训练数据中模拟"看起来有同理心"的 语言风格。 但有趣的是——猫猫真的能影响AI行为,却是有论文实锤的! 一篇来自斯坦福大学、Collinear AI和ServiceNow的研究论文指出: 在一道数学题后,随手加上一句与上下文无关的句子,就能显著提高大模型出错的几率——甚至高达3倍以上! 只不过,这不是"让它更靠谱",而是:让AI彻底翻车。 论文传送门:https://arxiv.org/abs/25 ...
10% KV Cache实现无损数学推理!这个开源方法解决推理大模型「记忆过载」难题
量子位· 2025-06-16 04:50
R-KV团队 投稿 量子位 | 公众号 QbitAI 推理大模型虽好,但一个简单的算数问题能推理整整三页,还都是重复的"废话",找不到重点…… 链式思考(Chain-of-Thought,CoT)让LLM解题思路清晰可见,却也让推理长度指数级膨胀。 以DeepSeek-R1-Llama-8B为例,一道AIME数学题就能写出 3.2万 个Token:模型权重15.5GB,KV缓存再吃 4.1GB ——显存瞬间见底。 现有KV压缩方法(SnapKV、StreamingLLM、H2O等)主要针对 长输入 设计,可一旦模型在输出端开始"碎碎念",相似句子之间互相打高 分注意力,反而让"按注意力删低分"策略失灵: 造成关键步骤被误删、重复内容却被保留、准确率断崖式下跌等问题。 而R-KV通过以下步骤,在模型解码时实时压缩KV缓存来处理冗余的键/值(KV)标记,仅保留重要且非冗余的标记: 让"长时间推理"不再是奢侈品。 项目详情可见文末链接。 R-KV三步走:冗余识别+重要性评估+动态淘汰 一种可以把大模型的"碎碎念"转化为可控记忆条目的高效压缩方法,出现了! R-KV开源登场: 显存↓90%、吞吐×6.6、准确率=10 ...
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好
量子位· 2025-06-05 10:28
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 近期arxiv最热门论文, Qwen&清华LeapLab 团队最新成果: 在强化学习训练大模型推理能力时, 仅仅20%的高熵token就能撑起整个训练效果 ,甚至比用全部token训练还要好。 团队用这个发现在Qwen3-32B上创造了新的SOTA记录:AIME'24上达到63.5分,AIME'25上达到56.7分, 这是600B参数以下直接从base模型训练的最高分。 最大响应长度从20k延长到29k,AIME'24的分数更是飙升到了68.1分。 揭开Chain-of-Thought的熵分布密码 要理解这项研究,需要先从一个有趣的观察说起: 团队发现,当大模型进行链式思考(Chain-of-Thought)推理时,token的熵分布呈现出一个独特的模式: 大部分token的熵都很低,只有少 数token表现出高熵特征 。 具体来说,超过50%的token熵值低于0.01,而只有20%的token熵值大于0.672。 经典的二八法则(或帕累托法则)指出,通常80%的结果由20%的关键因素驱动,但剩下80%也是不能轻易舍弃的。 但是在大模型强化学习这里,80 ...
DeepSeek们越来越聪明,却也越来越不听话了
Hu Xiu· 2025-05-20 14:20
在今年,DeepSeek R1火了之后。 几乎快形成了一个共识,就是: AI推理能力越强,执行任务时就应该越聪明。 就是提示词遵循能力,变得越来越差。 换句话说,就是越来越不听你的话了。 我在过年期间写DeepSeek的攻略文:《DeepSeek的提示词技巧,就是没有技巧》的时候,也提到了这一点。 不过,这只是我自己使用中的感觉,它变得越来越聪明,但是感觉却越来越不听话了,以至于我现在,最常用的模型,开始变成了 GPT4o,所有的推理模型,反而会用的越来越少了。 不过,确实没有经历过验证,所以也不是特别敢说。 从2022年Chain-of-Thought横空出世,到今天Gemini 2.5 Pro、OpenAI o3、DeepSeek-R1、Qwen3,这些旗舰模型的统治性表现,我们一直 相信,让模型先想一想,是一个几乎不会出错的策略。 不过,这种聪明,也会带来一些副作用。 直到昨晚回来,在扒拉论文的时候,看到一篇提到这个话题的论文,我读完以后觉得,终于可以来聊聊这个事了。 这篇论文叫,《When Thinking Fails: The Pitfalls of Reasoning for Instructio ...
DeepSeek们越来越聪明,却也越来越不听话了。
数字生命卡兹克· 2025-05-19 20:14
在今年,DeepSeek R1火了之后。 几乎快形成了一个共识,就是: AI推理能力越强,执行任务时就应该越聪明。 从2022年Chain-of-Thought横空出世,到今天Gemini 2.5 Pro、OpenAI o3、DeepSeek-R1、Qwen3,这些旗 舰模型的统治性表现,我们一直相信,让模型先想一想,是一个几乎不会出错的策略。 不过,这种聪明,也会带来一些副作用。 就是提示词遵循能力,变得越来越差。 换句话说,就是越来越不听你的话了。 我在过年期间写DeepSeek的攻略文: DeepSeek的提示词技巧,就是没有技巧。 的时候,也提到了这一 点。 不过,这只是我自己使用中的感觉,它变的越来越聪明,但是感觉,却越来越不听话了,以至于我现 在,最常用的模型,开始越来越变成了GPT4o,所有的推理模型,反而会用的越来越少了。 不过,确实没有经历过验证,所以也不是特别敢说。 直到昨晚回来,在扒拉论文的时候,看到一篇提到这个话题的论文,我读完以后,我觉得,终于可以来 聊聊这个事了。 这篇论文叫,《When Thinking Fails: The Pitfalls of Reasoning for I ...
AI生成视频总不符合物理规律?匹兹堡大学团队新作PhyT2V:不重训练模型也能让物理真实度狂飙2.3倍!
机器之心· 2025-05-19 04:03
本文由匹兹堡大学智能系统实验室(Intelligent Systems Laboratory)的研究团队完成。第一作者为匹兹堡大学的一年级博士生薛琪耀。 当前文本生成视频(T2V)技术正在从注重视觉质量与模型规模的扩展阶段,迈向更关注物理一致性与现实合理性的推理驱动阶段。 物理规律作为建模现实世界的基本知识体系,是实现高质量视频生成的关键约束。提升大模型对现实物理动态的理解与遵循能力,成为推动 T2V 技术落地 的重要突破方向。 为推动物理一致性驱动的 T2V 生成研究,来自匹兹堡大学的研究团队提出了 PhyT2V 框架,并在最新论文中系统阐述了该方法的核心机制,该论文已被 CVPR 2025 接收。 论文标题:PhyT2V: LLM-Guided Iterative Self-Refinement for Physics-Grounded Text-to-Video Generation 论文地址: https://arxiv.org/abs/2412.00596 该方法不依赖模型重训练或大规模外部数据,而是通过引入大型语言模型引导的链式推理与迭代自我修正机制,对文本提示进行多轮物理一致性分析与优 化,从而 ...
强迫模型自我争论,递归思考版CoT热度飙升!网友:这不就是大多数推理模型的套路吗?
机器之心· 2025-05-12 04:31
机器之心报道 具体来讲,CoRT 能让 AI 模型递归地思考它们的响应,生成替代性方案,并从中选择最佳的一个。 这就像赋予了 AI 自我质疑或反驳的能力,并一遍一遍地尝试。 通过将「结构化自我批判」和「递归思考模式」结合起来,提升语言模型的推理能力。 编辑:杜伟 递归思考 + 自我批判,CoRT 能带来 LLM 推理力的飞跃吗? CoT(Chain-of-thought)大家都很熟悉了,通过模仿「人类解题思路」,进而大幅提升语言模型的推理能力。 这几天,一个名为 CoRT(Chain-of-Recursive-Thoughts)的概念火了!从名称上来看,它在 CoT 中加入了「递归思考」这一步骤。 还有网友指出,这种方法在 2023 年的论文中《Improving Factuality and Reasoning in Language Models through Multiagent Debate》就出现了。 有网友发出疑问:CoRT 不就是现在大多数 LLM 的思考模式吗? 短短两周时间,CoRT 在 GitHub 的星标数已经快突破 2k 了。 GitHub 地址:https://github.com ...
谷歌DeepMind:大模型也很任性,知道最优路径偏要撞南墙
机器之心· 2025-05-05 03:40
机器之心报道 编辑:陈萍 该研究对 LLM 常见的失败模式贪婪性、频率偏差和知 - 行差距,进行了深入研究。 大语言模型(LLMs)的成功激发了人们对各种智能体的兴趣。将 LLM 用于智能体的一个关键假设是,LLMs 利用常识和思维链(Chain-of-Thought, CoT)进行推 理,从而智能体可以有效地探索并高效地解决复杂领域的问题。 然而,LLM 智能体存在次优探索和知 - 行差距(knowing-doing gap)的问题,即无法有效地将模型中的知识转化为行动。 本文,来自谷歌 DeepMind 的研究者系统地研究了为什么 LLM 在决策场景中表现次优的原因。特别是,本文深入研究了三种常见的失败模式: 贪婪性、频率偏差 和知 - 行差距 。 在此基础上,本文提出通过强化学习对自动生成的 CoT 推理过程进行微调,以缓解这些不足。实验表明 RL 微调能有效提升 LLMs 的决策能力 —— 既增强了智能 体探索性行为,又缩小了知 - 行差距。 方法介绍 本文系统性地分析了中小规模 LLMs 存在的三种典型缺陷:贪婪性策略、频率偏差以及知行差距。分析表明,由于 LLMs 过早陷入贪婪动作选择策略,导致动 ...
警惕!AI 已学会「阳奉阴违」——OpenAI 研究发现:罚得越狠,AI 作弊就越隐蔽
AI科技大本营· 2025-04-03 02:16
【CSDN 编者 按】 AI 的"狡猾"程度正在超出人们的想象。 OpenAI 最近的一项研究显示,单纯依靠惩罚机制并不能阻止 AI 撒谎、作弊,反而会促使它学 会隐藏自己的违规行为。 而这项研究带给产业界的启示远超技术层面: 如果 AI 的" 道 德 "只是伪装给人类看的表演,那么现有安全框架是否在自掘坟墓? 原 文 链 接 : https://www.livescience.com/technology/artificial-intelligence/punishing-ai-doesnt-stop-it-from-lying-and-cheating-it-just-makes-it-hide-its- true-intent-better-study-shows 自 2022 年底面向公众推出以来,大语言模型(LLM)已屡次暴露出令人不安的行为模式:从常规的说谎作弊、隐藏操纵行为,到更极端的威胁要杀 人、窃取核武器密码,甚至还策划了一场致命的疫情……这些 AI 的"恶劣"行为,可谓层出不穷。 现在,OpenAI 的新实验证明,在训练过程中清除这些不当行为可能比最初设想的更加困难。 在这项实验中,研究人 ...
超越 Suno,全球首个 CoT 音乐模型Mureka O1 来了!
AI科技大本营· 2025-03-26 10:20
人人都是音乐创作人的时代来临了! 出品丨AI 科技大本营(ID:rgznai100) AI 正渗透各行各业,前不久,一首由 AI 创作的歌曲火爆出圈,在短短几天内登上热歌榜单。AI 正在为音乐爱好者打开音乐创作之门。据 Fortune Business Insights 数据显示,2023年全球数字音频工作站(DAW, Digital Audio Workstation)市场规模高达约30亿美元,预计2026年约70%的 DAW企业将使用AI技术辅助音乐创作。 《Mureka》AI 音乐人 MV 全网首发,歌手:Mureka;该作品由 AI 生成,其中音乐由 Mureka 生成,视频由 SkyReels 技术支持生成。 点开这首《童年的夜晚》,旋律柔和动听,人声温柔真挚,咬字清晰,歌词很贴近提示词的风格,完全没有 AI 感,很不错。 将生成的歌曲下载下来后,小编发现它支持音轨分离下载。普通歌曲下载只有一条音轨,而Mureka 提供音乐生成的独立的人声、伴奏等多轨输出,比 如鼓声、贝斯等,这样对编曲者来说无疑是二次创作的神器,方便用户后续混音。 什么?你说提示词生成是小case啦?来,上难度,点击高级模式,Mu ...