熵

Search documents
心理学|如何重建心理边界,摆脱讨好型人格的束缚
Jing Ji Guan Cha Bao· 2025-06-09 00:40
(原标题:心理学|如何重建心理边界,摆脱讨好型人格的束缚) 在人际交往中,你有没有遇到这样的情况:总是难以坚守自己的心理边界,习惯于牺牲自己的需求和感 受去迎合他人。这种现象背后隐藏着复杂而深刻的心理机制—-从讨好型人格到自我坍缩。而重建心理 边界则是帮助我们走出困境的关键之路。 当个体的心理边界不断被突破,他人需求无限制地入侵自己的心理空间时,会出现"心理熵增"的现象。 个体的认知资源就像一个有限的容器,当被过多的外界干扰填满后,就会出现"决策瘫痪"和"情绪过 载"。临床研究数据显示,长期边界模糊的人群患抑郁的风险是普通人群的两三倍。他们的内心世界就 像被一场混乱的风暴肆虐过,失去了平静和秩序,难以找到安宁的角落。 有相关研究显示:缺乏边界感的人际互动容易陷入"权力失衡陷阱"。在一段关系中,如果一方习惯于放 弃自己的边界,另一方可能会不自觉地通过隐性操控,如情感绑架等方式,获得更多的控制权。而放弃 边界的一方则会在"被需要感"与"被剥削感"之间反复挣扎,既渴望得到对方的重视和认可,又对自己的 付出感到委屈和不满,这种不平衡的关系模式让双方都无法真正获得幸福和满足。 当心理边界防线全面崩溃时,个体很可能会陷入 ...
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好
量子位· 2025-06-05 10:28
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 近期arxiv最热门论文, wen&清华LeapLab 团队最新成果: 在强化学习训练大模型推理能力时, 仅仅20%的高熵token就能撑起整个训练效果 ,甚至比用全部token训练还要好。 团队用这个发现在Qwen3-32B上创造了新的SOTA记录:AIME'24上达到63.5分,AIME'25上达到56.7分, 这是600B参数以下直接从base模型训练的最高分。 最大响应长度从20k延长到29k,AIME'24的分数更是飙升到了68.1分。 经典的二八法则(或帕累托法则)指出,通常80%的结果由20%的关键因素驱动,但剩下80%也是不能轻易舍弃的。 但是在大模型强化学习这里,80%低熵token不仅可以舍弃,甚至还可能起副作用,所以这篇论文被命名为"超越二八法则"。 此 外,团队还从token熵的角度探究了RL对LLM的主要影响,并进一步讨论了RL与SFT的区别、LLM RL的特殊性与clip-higher相较于 entropy bonus的优势。 揭开Chain-of-Thought的熵分布密码 要理解这项研究,需要先从一个有趣的观察说起: 团队发 ...
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好
量子位· 2025-06-05 10:28
梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 近期arxiv最热门论文, Qwen&清华LeapLab 团队最新成果: 在强化学习训练大模型推理能力时, 仅仅20%的高熵token就能撑起整个训练效果 ,甚至比用全部token训练还要好。 团队用这个发现在Qwen3-32B上创造了新的SOTA记录:AIME'24上达到63.5分,AIME'25上达到56.7分, 这是600B参数以下直接从base模型训练的最高分。 最大响应长度从20k延长到29k,AIME'24的分数更是飙升到了68.1分。 揭开Chain-of-Thought的熵分布密码 要理解这项研究,需要先从一个有趣的观察说起: 团队发现,当大模型进行链式思考(Chain-of-Thought)推理时,token的熵分布呈现出一个独特的模式: 大部分token的熵都很低,只有少 数token表现出高熵特征 。 具体来说,超过50%的token熵值低于0.01,而只有20%的token熵值大于0.672。 经典的二八法则(或帕累托法则)指出,通常80%的结果由20%的关键因素驱动,但剩下80%也是不能轻易舍弃的。 但是在大模型强化学习这里,80 ...
10行代码,AIME24/25提高15%!揭秘大模型强化学习熵机制
机器之心· 2025-06-05 07:14
本文作者分别来自于清华大学、北京大学、上海AI实验室等机构。本文共同第一作者崔淦渠、张宇臣、陈嘉诚来自上海AI实验室,研究方向为大模型的推理增 强。通讯作者为上海AI实验室成宇教授、上海AI实验室周伯文教授、清华大学丁宁助理教授。 Nature never undertakes any change unless her interests are served by an increase in entropy. 自然界的任何变化,唯有在熵增符合其利益时方会发生—— Max Planck 在强化学习中,我们又该如何让熵增符合我们的利益? 近日,来自上海人工智能实验室、清北,UIUC 等机构的研究者的工作揭示了大模型强化学习中的熵变化的机制。研究内容主要如下: 在 Qwen, Mistral, LLaMA 和 Deepseek Model family 上,我们验证了这一点: 论文标题:The Entropy Mechanism of Reinforcement Learning for Reasoning Language Models 1. 大模型强化学习中的熵塌缩问题 强化学习的核心挑战在于利用 - 探 ...
当代的回响——欧美艺术家联展(一)
Jing Ji Guan Cha Bao· 2025-06-04 08:04
作为中国较早专注西方经典艺术的机构,蛙人画廊21年来持续挖掘被主流叙事遮蔽的艺术矿床。本次展 览中,那些还未被艺术市场神化的名字,恰是"回响"的真正载体。当古典主义的庄重、立体主义的锐 利、超现实的荒诞在此交融,他们的作品证明:艺术的价值不在拍卖槌下,而在文明基因的传递中。 参展艺术家及其部分精选作品: (原标题:当代的回响——欧美艺术家联展(一)) 在蛙人艺术成立21周年之际,将于2025年6月5日下午3点在北京国贸商城南区地下一层SB125举办《当 代的回响——欧美艺术家联展》开幕式,据了解,本次展览将展出15位顶尖的欧美艺术家的近200件艺 术作品,此次展览是画廊历史上最大规模的一次展览,展期为2025年6月1日-6月30日。 道格·海德(DOUG HYDE) 道格·海德1972年出生于英国布里斯托尔,自2002年开始艺术创作。2005年,他成为英国年度最畅销艺 术家同时也被BBC评为"英国现今最受欢迎的艺术家"。他的作品在世界范围内备受瞩目和青睐,他的藏 家中不乏有像英格兰国家队教练罗伊.霍奇森、高尔夫球选手罗伊·麦克罗伊和英国著名影星艾米丽·布朗 特等知名人士。 道格·海德为2014年世界杯和201 ...
挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化
量子位· 2025-06-01 03:40
Ubiquant团队 投稿 量子位 | 公众号 QbitAI 无需标注数据、无需繁琐奖励设计,只用10步就能见效—— 「熵最小化」或许比强化学习更适合大语言模型快速升级 。 强化学习(RL)近年来在大语言模型(LLM)的微调中大获成功,但高昂的数据标注成本、复杂的奖励设计和漫长的训练周期,成为制约RL 进一步应用的瓶颈。 Ubiquant研究团队提出了一种极为简单有效的无监督方法——One Shot熵最小化(Entropy Minimization,EM),仅用一条无标签数据, 训练10步内即可显著提升LLM性能,甚至超过使用成千上万数据的RL方法。 一、从RL到EM:LLM微调的困境与新思路 当前,大语言模型(LLM)在经过海量数据预训练后,展现出了惊人的通用能力。然而,要让模型在特定、复杂的推理任务(例如数学、物理 或编程)上达到顶尖水平,后训练(post-training)主流后训练方法是采用强化学习(RL),特别是结合可验证奖励的强化学习(RLVR)。 尽管基于RL的微调在提升模型性能上取得了显著进展,但其过程却面临着一系列明显的弊端,使得这种方法成本巨大且过程繁琐。 相较之下,熵最小化(EM)提出了 ...
为什么不要加杠杆?
Hu Xiu· 2025-05-28 07:50
有朋友最近购入美股半导体指数三倍做多ETF,这是一个好选择吗? 现在各种成功学方法论里,也强调各种杠杆的作用。 那么,杠杆这把"放大器",是捷径还是陷阱? 一、杠杆的"魔咒":为何不是点金石? 杠杆本身不创造价值,更非"低风险高收益"的套利手段。 1. 数学迷思:每日复利的"波动损耗" 杠杆ETF通过每日重设仓位机制,确保当日回报维持预设杠杆倍数 。这导致了"波动损耗"(Volatility Drag)或"复利衰减" 。 若标的先涨10%再跌10%,初始100元变为99元; 而3倍ETF则变为91元 。 简单计算如下: (1+30%)✖️(1-30%)=0.91 此现象源于几何平均回报低于算术平均回报,且杠杆会不成比例地放大此效应。 也就是说,即使市场随机波动,盈亏之间是不对称的。 。 2. 不对称的"鸿沟":盈与亏的生死失衡 对于三倍杠杆ETF,标的指数单日下跌超33.33%,理论上ETF价值将归零 。 这就是所谓的赌徒必败原理,或是塔勒布总在说的"吸附"。 即使你在玩儿一个有利的游戏,被吸这么一下子,就失去了赢回全局的机会。 这就是更大的生和死之间的不对称性。 更需警惕的是"固定杠杆陷阱":亏损后,ETF ...
知识库越智能,组织就越聪明吗?
虎嗅APP· 2025-05-27 14:09
以下文章来源于王智远 ,作者王智远 王智远 . 商业记录者,主持人、《复利思维》《自醒》图书作者;专注于市场营销、消费心理、AI新科技、精 神生活与商业探索。 本文来自微信公众号: 王智远 ,作者:王智远,题图来自:AI生成 AI没火时,就有不少公司在做知识库了。 钉钉后来上线"端内搜",想找什么直接搜,还能做智能总结。当时关注的人不多,到今年四月,情况 变了。 大厂突然扎堆进知识库赛道,特别是做平台的,像飞书、腾讯Ima、腾讯乐享这些,开始猛推知识库 功能。 一 大厂为啥突然都开始卷知识库?前段时间,我听到一个挺有意思的说法。 一边是,大家都知道 AI 搜索确实方便,但它爱胡扯,外面信息源太杂,很多时候根本不敢直接用; 对效率党来说,在搜索、写东西、管理项目之间来回切换,早就成了日常。 他们要一个专属空间,把有用的信息筛出来统一管理; 说白了,就是在解决"知识沉淀"的问题:让 信息真正变成能复用的知识。 另一边,有位企业高管跟我说,知识库是当前 2B 领域里,AI 最容易落地的应用之一。 其他付费模式还停留在"SaaS + AI"或者"AI + SaaS"的阶段,改造周期长、见效慢;尤其以云服务为 主的大厂 ...
黄金:你不知道的10个冷知识
3 6 Ke· 2025-05-27 03:43
这实际上反映了法币体系的内在逻辑。 1971年布雷顿森林体系瓦解后,美元与黄金脱钩,美元对黄金的价值大幅贬值。 以1971年35美元/盎司为基准,2025年4月黄金价格一度超过3450美元/盎司,美元相对黄金贬值超99%。 各国货币失去了黄金锚定,通胀成为了政府征收的"隐形税"。 这背后的逻辑,也是比特币的金融学"第一性原理"之一。 2、黄金不产生有现金流,长周期没跑赢美国股市。 虽然黄金把美元秒成渣,但是-- 以1900年为基准,黄金的真实购买力基本维持不变; 而股市(如标普500)的真实回报率年化约7%。 从1801年至2014年,黄金涨到3倍,(美国)股票涨到100万倍。 这个对比揭示了黄金作为"价值储存"而非"增值工具"的本质。 1、上世纪70年代至今,美元相对黄金贬值99%。 但是过去数十年,黄金回报不错。参见下图。 1971年至2025年,黄金年化回报8.2%,标普500为7.8%,纳指为10.6%。 2005年底至2025年初,国际金价从每盎司500美元上涨至3350美元左右,年化回报率约为9.7%,同期标普500指数的年均涨幅为9.82%。 近5年,黄金年化收益率高达16.2%,标普500约为 ...
设计在人工智能时代蓬勃发展的组织结构
3 6 Ke· 2025-05-20 03:47
因为人工智能不仅在改变任务的执行方式,更在重塑企业内部能量流动与决策机制的核心结构。信息流、责任归属、行动效率,在 AI 加入后都变得更加复 杂,甚至更加混乱。而许多组织仍沿用职能部门分割、垂直决策链条的老旧架构——在需要快速响应与清晰协作的关键时刻,这种结构只会放大混乱、加速 熵增。 在生成式 AI 加速发展的时代,很多企业都在焦虑:AI 会不会取代我们的员工、部门、甚至整个领导团队?然而,真正有前瞻性的 CEO 们并不纠结于"人会 不会被 AI 替代",而是开始追问另一个更关键的问题:"我们该如何重组领导与执行团队,才能真正释放 AI 的潜力?"这是正确的问题。 为了解决这个问题,越来越多成功的公司正在采用一个新的组织设计模型:战略执行团队(SET)。这个模型不是让 AI 替代人类,而是让 AI 成为团队的一 部分,通过设计合理的"人机协作机制",实现真正的敏捷执行与智能扩展。 本文将深入探讨: ·为什么传统组织架构难以适应 AI 带来的复杂性; ·SET 如何作为 AI 时代的"组织中枢",驱动战略落地、控制熵值; ·企业如何通过生命周期匹配、角色重构和动态结构调整,让 AI 不再是一种风险,而是一种可 ...