Workflow
大语言模型(LLM)
icon
Search documents
强化学习之父:LLM主导只是暂时,扩展计算才是正解
量子位· 2025-06-10 02:23
鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 大模型目前的主导地位只是暂时的,在未来五年甚至十年内都不会是技术前沿。 这是新晋图灵奖得主、强化学习之父Richard Sutton对未来的最新预测。 就在刚刚的新加坡国立大学建校120周年 (NUS120) 之际,Sutton受邀发表演讲——塑造AI和强化学习的未来。 其实,这已经不是Sutton第一次在公开场合表达类似的观点,早在他19年的著作《痛苦的教训》中,他就明确提出: 让AI尤其是LLM模仿人类思维方式,只能带来短期的性能提升,长期看只会阻碍研究的持续进步。 在他4月份新发表的论文《欢迎来到体验时代》也再度强调了这点,同时他表示,扩展计算才是正解。 本次NUS120演讲长达一个多小时,可谓是干货满满、信息量超大。 让我们一起来看看完整演讲内容。 LLM主导是暂时的 Sutton首先提及当前人类处于数据时代,像ChatGPT这类大语言模型,都是靠分析人类产生的大量数据 (如文本、图像、视频) 进行训 练。 但始终追逐人类思维方式,至多也只能达到 "人类水平" 。 在数学、科学等领域,人类数据里的知识已经接近极限,AI难以突破现有认知,纯靠模仿已经 ...
苹果:向第三方开发者开放AI模型
news flash· 2025-06-09 17:13
确认公司重新设计(众多)操作系统。 新版设计是"公司历史上范围最广的新设计"。 APP开发商很快就能接入预装的大语言模型(LLM)。 苹果公司:面向开发者推出苹果智能(Apple Intelligence)模型。 ...
硅谷风投a16z:GEO将重塑搜索 大语言模型取代传统浏览器
3 6 Ke· 2025-06-05 11:39
6月5日消息,在ChatGPT、Perplexity、Claude等大语言模型快速普及的当下,传统的搜索引擎优化(SEO)正在逐步被一种全新的策略 所取代:生成式引擎优化(GEO)。硅谷风险投资巨头a16z于5月28日撰文称,GEO正在成为品牌提升营销效果的核心手段,其重要性甚 至已超越SEO。 a16z强调,在AI主导的信息获取时代,品牌的竞争焦点将从"如何操控搜索排名"转向"如何被AI模型主动引用"。未来,最具影响力的品 牌不仅会出现在生成式AI的回答中,更将深度参与这些内容的构建与定义。换句话说,品牌成功的关键,不再是向搜索引擎靠拢,而是 让AI模型"记住你"。 以下为a16z撰文全文: 二十多年来,SEO一直是获取在线曝光机会的黄金标准,催生了大量关键词堆砌者、外链交易经纪人、内容优化者,以及各种审计工具 和服务。这个庞大的产业链帮助无数企业在数字营销方面取得了成功。然而,到了2025年,搜索的主战场正在发生剧变,传统搜索引擎 浏览器正逐渐被大语言模型(LLM)平台所取代。 随着苹果宣布将AI原生搜索引擎(如Perplexity和Claude)集成到Safari浏览器中,谷歌一统江湖的搜索霸主地位正面 ...
AI 编程终结的不是代码,而是作为「容器」的软件
Founder Park· 2025-06-03 12:56
以下文章来源于范阳 ,作者范阳 范阳 . This is a "living media", 目标是建立一种文化, 使前沿科技和风险投资为人类服务,而不是把人类和生态作为手段。我是一名创业者,科技投资人和内容创 作者,这里也是我学习和成长的地方。 2005 年 YouTube 的「上传」按钮开启了内容创作的民主化时代。而现在,AI 以「描述」这一动词,正在改变我们对于软件的认知与生产方式。 一年后,这个预测逐渐应验。Chris Paik 近期再次发布了一篇博客文章《无限代码的黎明》,顺着这个方向,提出随着大语言模型(LLM)将代码生成的 成本降至趋近于零,传统意义上作为独立「应用程序」或「平台」存在的软件形式将逐渐消失。这篇文章的最核心观点是:软件的终结并非代码的死亡, 而是其作为「容器」的消融。 以下为文章原文,内容略有调整。 原文链接: https://docs.google.com/document/d/1Dm9UrhgaRMu_DjOz5KluO7ibOsPaUVQgwnC5-ccw9_g/mobilebasic 超 4000 人的「AI 产品市集」社群!不错过每一款有价值的 AI 应用。 邀请从业者 ...
疯了!我那些怀疑 AI 的程序员朋友,都疯了!网友:越聪明越觉得 LLM 不行
程序员的那些事· 2025-06-03 10:12
关于讨论 AI 编程助手/ LLM 的文章,最近发了几篇: 今天在 HackerNews 看到一篇讨论 AI 辅助编程的文章,再次引爆这个话题了。 早上我刷到这篇文章收藏时也就 600 多个留言,在 18:01 已有 1830 个留言,也是吵得不可开交了。 我那些怀疑 AI 的朋友都疯了 这是一篇关于 AI 辅助编程的诚挚探讨 。 科技公司高管们都在强推大语言模型(LLM)的应用,这策略着实不咋地,但我能理解他们的出发点。 我认识的一些聪明人坚信 AI 不过是昙花一现的潮流,就跟当年的 NFT 热潮差不多。我一直不太敢反驳他们, 毕竟,人家确实比我聪明。但他们的观点站不住脚,值得好好说道说道。有些极有才华的人,纯粹出于抵触情 绪,还在做那些 LLM 早已能出色完成的工作。 就算从今天起,LLM 的发展彻底停滞,它也依然是我职业生涯中第二重要的事物。 重要提醒:我这里只讨论 LLM 对软件开发的影响。至于在艺术、音乐和写作领域,我没啥看法。我倾向 于认同这些领域里质疑者的观点,但在我自己的专业领域,我可不信他们那一套。 先自报家门: 从上世纪 90 年代中期起,我就开始搞软件开发了。最开始写盒装的 C 语言代码 ...
搜索Agent最新高效推理框架:吞吐量翻3倍、延迟降至1/5,还不牺牲答案质量丨南开& UIUC研究
量子位· 2025-05-29 01:08
大语言模型(LLM)驱动的搜索智能体,通过动态拆解问题、交错执行"思考"(推理)和"查 找"(检索)来解决复杂任务,展现了惊人能力。 SearchAgent-X团队 投稿 量子位 | 公众号 QbitAI AI越来越聪明,但如果它们反应慢,效率低,也难以满足我们的需求。 然而,这种深度交互的背后,也隐藏着显著的效率痛点。 处理复杂任务时,查得慢、查得不准,都会拖慢整个流程。 来自南开大学和伊利诺伊大学厄巴纳-香槟分校的研究人员深入剖析了这些效率瓶颈,并提出 了一套名为 SearchAgent-X 的高效推理框架。 实践表明,SearchAgent-X实现了 1.3至3.4倍 的吞吐量提升, 延迟降至原来的 1/1.7至 1/5 ,同时不牺牲最终的答案质量。 解析搜索智能体中的两大效率瓶颈因素 研究者发现,看似简单的检索环节,隐藏着两大关键的效率制约因素: 检索精度:并非"越高越好"的微妙平衡 直觉上,检索越准,LLM获取信息质量越高,效率也应该越高。但实际情况是 非单调关系 过低精度 LLM需更多轮检索和推理弥补,总时间增加。 过高精度 检索本身计算资源消耗巨大,拖慢整体速度。 研究表明,系统吞吐量随近似检索 ...
LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了
机器之心· 2025-05-28 08:09
机器之心报道 编辑:泽南、+0 我们训练了这么久,都在训练些什么? 这是今年最「好笑」的一篇论文。 本文一出,所有的大语言模型(LLM)+ 强化学习(RL)都要被质疑是否有意义了。 这周二,一篇来自华盛顿大学、艾伦人工智能实验室、伯克利的论文引爆了 AI 界。 作者驳斥了最近大模型领域盛行的强化学习方式,他们发现: 使用虚假奖励训练 Qwen2.5-Math-7B 模型也可以提高 MATH-500 的成绩,如果是随机奖 励,成绩能提高 21%,如果是错误奖励,成绩能提升 25%(真实奖励能提升 28.8%)。 这是怎么一回事?大模型的训练技巧真的有用吗?该工作的作者写了一篇博客进行了介绍: 质疑强化学习 (RLVR) 传统观点 近一段时间,可验证奖励强化学习(RLVR)已成为增强大型语言模型(LLM)推理能力的标准方法。传统观点认为,高质量的监督信号对于有效的 RLVR 训 练至关重要。最近的研究挑战了这一假设,表明使用 RLVR 对单个样本或无监督样本进行训练仍然可以在 Qwen-Math 模型上取得显著的进步。 但是,我们不禁要问:单样本或无监督 RLVR 中的训练信号来自哪里?为了提供有意义的 RLVR ...
领域驱动的 RAG:基于分布式所有权构建精准的企业知识系统
Sou Hu Cai Jing· 2025-05-22 13:37
作者 | George Panagiotopoulos 译者 | 明知山 策划 | 丁晓昀 我们的背景 作为一家在银行技术领域拥有超过 30 年行业经验的领军供应商,我们拥有丰富且极具创新性的代码库,并通过战略性收购不断扩大业务。多年来,我们 一直将自己定位为行业的创新者,但创新的迅猛步伐也为我们带来了在庞大产品线中保持文档一致性与时效性的挑战。 虽然我们代码库的部分模块拥有坚实且管理得当的文档,但仍有部分模块存在文档不清晰或内容过时的问题,这导致我们的销售工程师和客户架构师很难 找到所需的信息。此外,我们的领域专家在各自的专业领域拥有深厚的知识和丰富的经验,但这些宝贵的专业知识往往分散且孤立,难以被系统地整合和 获取。 此前,我们曾尝试通过知识共享计划和培训项目来解决这一问题,但由于文档分散和专业知识孤立,这些努力的效果并不理想。我们还尝试引入基于静态 预定义问题和答案数据库的事实查找工具。然而,这些工具在使用过程中面临一个重大挑战——缺乏上下文信息。通常情况下,如果问题本身或其上下文 (或两者)稍有不同,针对特定问题在特定上下文中的答案就难以复用。为了克服这些获取准确技术信息的障碍,我几个月前决定探索使用 ...
中金 | 大模型系列(3):主动投研LLM应用手册
中金点睛· 2025-05-15 23:32
中金研究 随着互联网和新媒体的发展,信息以前所未有的速度和规模增长,主动投资者面临着"信息过载"的挑战。传统投研方法在处理海量、复杂、非结构化 且真伪难辨的金融信息时,容易存在效率低下的情况。大语言模型(LLM)凭借其强大的自然语言理解、模式识别及信息抽取能力,为应对这一挑战 带来了新的解决方案。全球领先资管机构已积极布局LLM应用,覆盖信息处理、情绪分析、主题投资等多个环节,预示着LLM正从实验探索迈向实战 化应用。 本文将深入探讨LLM在信息获取与处理、深度分析与挖掘、策略生成与验证等核心投研环节的具体应用,对比多个大模型平台的使用效果, 并展望大模型的应用前景及面临的挑战。 (3)上市公司业绩电话会纪要分析: LLM可快速处理会议内容,生成摘要,提取财务更新、战略重点、业绩解释与展望。LLM还能对比历史会议内容, 识别管理层在表达方式口径上的变化;LLM也可以总结分析师提问热点,评估管理层回应质量,并捕捉异常表述。 深度分析与挖掘:"提炼精华"。 摘要 点击小程序查看报告原文 Abstract 信息获取与处理:从"大海捞针"到"精准筛选"。 LLM通过自动化信息追踪、研报分析对比及业绩会纪要分析,能够极 ...
一个极具争议的开源项目,「微信克隆人」火了!
菜鸟教程· 2025-05-15 08:33
以下文章来源于JackCui ,作者JackCui JackCui . 一名热爱技术的算法工程师。分享技术,乐享生活:技术、快乐、财富。 你的微信里有没有一个对话窗?它很久都没有弹出新消息,但你却常常在深夜里点开反反复复地翻着。 如果现在,你可以用这些聊天记录克隆出对方的"数字分身",保存下 TA 说话的语气、风格、独特的口 头禅,甚至还能给你发来语音,你会怎么选? 最近,GitHub 上新开源了一个项目 WeClone——让你记忆里的那个 TA 在数字世界里永生,已不再是不 可能。 WeClone 通过个人微信聊天记录对大语言模型( LLM )进行微调,打造个性化的数字分身。 除了留住记忆里的 TA,你也可以创造自己的数字分身。 你有没有想过,和自己聊天会是什么样的体 验?你会喜欢和自己聊天吗? | O | 17 | 0 | ılıl 1.9K | W | T | | --- | --- | --- | --- | --- | --- | | | Vic Huang @bugauwIQtoa5ftS · Apr 11 | | | C | ... | | 数字永生 | | | | | | | 0 | 5 | ...