Workflow
量子位
icon
Search documents
不懂建模也能做角色!VAST升级AI神器,一手实测来了:一键拆建/魔法笔刷/万物绑骨
量子位· 2025-05-29 04:42
允中 发自 凹非寺 量子位 | 公众号 QbitAIn 而Tripo Studio作为一站式解决方案,其核心优势在于通过拓扑优化、智能贴图及部件级编辑等功能模块的协同运作,使输出模型在游戏开 发、工业设计等多场景下,可直接替代传统DCC建模软件的繁杂工序,实现从生成到应用的全链路效率提升。 智能部件分割:一键拆建,建模不再是整体大拉锯 多少用户在评论区高呼的 一键拆分 功能终于来了,真正是3D打印和游戏制作用户的福音。 背后的算法就是之前曾分享过 Tripo开源月全家桶的Holopart 。 视频、图片生成模型发展近三年,仍然在轨道编辑与图层操作方面有巨大的局限性,Tripo Studio率先实现了3D模态下的精准可控编辑。这 一突破不仅显著提升了创作效率,更开拓了巨大的商业应用空间。 AI建模界的"作弊神器"真的来了! 3D大模型明星初创VAST推出的Tripo Studio此次大升级—— 四大核心功能:智能部件分割、贴图魔法笔刷、智能低模生成、万物自动绑骨等。给人一种感受是, AI终于懂得建模了 。不是那种只会给你 乱糊一个模型出来的AI,而是每个功能都直击过去建模流程里的痛点。 过去想做个角色模型只能外 ...
奖励是假的,能让Qwen提升25%性能却是真的!
量子位· 2025-05-29 01:08
鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 即使RLVR (可验证奖励强化学习) 使用错误的奖励信号,Qwen性能也能得到显著提升? 甚至还和真实奖励相差无几。 自从RLVR 被DeepSeek-R1带火,RL推理研究层出不穷,走进了蜜月期。 这不,来自华盛顿大学的一群博士生来火上浇油了—— 使用Qwen模型 (尤其是数学版本) ,对虚假奖励进行 RLVR ,仍然可以将MATH-500的绝对准确率显著提升约 25% 。 团队实验发现: RLVR通过激活预训练中的推理能力来提升性能,但 不考虑奖励信号的正确性 。 这彻底颠覆了既往大家对RLVR的认知,原来那些年在虚假奖励上踩过的坑,还真能实现弯道超车? X上的网友们纷纷表示,强烈建议每位RLVR研究员都来读一读,尤其是那些围绕Qwen模型精心构造奖励函数的研究员们,该瑟瑟发抖了…… Qwen自家的研究员Binyuan Hui也在评论区现身: 具体啥情况?下面我们娓娓道来。 虚假奖励带来显著的RLVR增益 此前已有研究证明,RLVR在提升语言模型推理能力上非常有效,核心思想是 利用可自动验证的奖励信号优化 。 普遍研究都默认优化效果依赖奖励的正确性,但 ...
AI连电路图都看不懂?SeePhys新基准暴击多模态短板,正确率低至55%
量子位· 2025-05-29 01:08
SeePhys团队 投稿 量子位 | 公众号 QbitAI 当前顶尖AI模型是否真能"看懂"物理图像? 全谱系多模态物理推理新基准来了,结果 SO TA级模型准 确率都不足55% 。 新基准名为 SeePhys ,强调了图形感知对于模型认识和理解物理世界的重要性。 内容涵盖经典与现代物理的各个知识等级和领域,包括 从初中到博士资格考试的全谱系多模态物理问题 。 它由中山大学、苏黎世联邦理工学院、华为诺亚方舟实验室和香港大学的研究团队联合推出,于近日 正式开源 。 团队在实验中系统性评估了LLM/MLLM在复杂科学图表与理论推导耦合任务中的表现。 结果表明即使是Gemini-2.5-Pro和o4-mini等SOTA模型准确率都不足55%,暴露出多模态推理的巨大挑战。 团队表示,目前该基准正在ICML 2025 AI for MATH Workshop中开放评估,欢迎学界与工业界的团队来挑战。 为什么需要SeePhys? 近年来,数学在大语言模型 (LLMs) 的推理能力评估中大放异彩,而物理学由于其具有与真实场景的强相关性和更复杂的图像信息,正在 多模态测评中得到越来越多的重视。 物理学不仅知识体系庞大、逻辑链 ...
搜索Agent最新高效推理框架:吞吐量翻3倍、延迟降至1/5,还不牺牲答案质量丨南开& UIUC研究
量子位· 2025-05-29 01:08
大语言模型(LLM)驱动的搜索智能体,通过动态拆解问题、交错执行"思考"(推理)和"查 找"(检索)来解决复杂任务,展现了惊人能力。 SearchAgent-X团队 投稿 量子位 | 公众号 QbitAI AI越来越聪明,但如果它们反应慢,效率低,也难以满足我们的需求。 然而,这种深度交互的背后,也隐藏着显著的效率痛点。 处理复杂任务时,查得慢、查得不准,都会拖慢整个流程。 来自南开大学和伊利诺伊大学厄巴纳-香槟分校的研究人员深入剖析了这些效率瓶颈,并提出 了一套名为 SearchAgent-X 的高效推理框架。 实践表明,SearchAgent-X实现了 1.3至3.4倍 的吞吐量提升, 延迟降至原来的 1/1.7至 1/5 ,同时不牺牲最终的答案质量。 解析搜索智能体中的两大效率瓶颈因素 研究者发现,看似简单的检索环节,隐藏着两大关键的效率制约因素: 检索精度:并非"越高越好"的微妙平衡 直觉上,检索越准,LLM获取信息质量越高,效率也应该越高。但实际情况是 非单调关系 过低精度 LLM需更多轮检索和推理弥补,总时间增加。 过高精度 检索本身计算资源消耗巨大,拖慢整体速度。 研究表明,系统吞吐量随近似检索 ...
DeepSeek新版R1直追OpenAI o3!实测来了:“小版本升级”着实不小
量子位· 2025-05-29 01:08
鱼羊 发自 凹非寺 量子位 | 公众号 QbitAI DeepSeek终于还是在端午节前来炸场了: △ 图源:@flavioAd 也能做对难倒o3、Gemini 2.5 pro、Claude 4等一众顶流大模型的数字新难题" 9.9-9.11=? "了。 R1更新新版本 DeepSeek-R1-0528 ,看名字你可能以为是个小版本更新,但实际上—— "在LiveCodeBench上几乎与OpenAI o3-high相当!" "讲真这其实就是R2吧。" 不怪网友们惊呼声一片,看第一波实测结果,就知道事情并不简单。 新版R1的小球弹跳实验,与旧版对比结果如下: 新模型已经在HuggingFace上释出,依然是MIT协议。 | 8 main v | DeepSeek-R1-0528 | | Q | | --- | --- | --- | --- | | | · 1 contributor | 9 History: 11 commits | | | | msr2000 Add files using upload-large-folder tool | 174da7f | | | | VERIFIED | | | ...
开源AI开发生态大洗牌:低代码平台逆袭,传统LLM框架日渐式微
量子位· 2025-05-28 07:28
报告+图谱,也让这句"大模型开发生态,是一场现实世界的黑客松",在现场被开发者一遍遍讨论。 是的,在介绍最新的开源生态报告时,蚂蚁开源委员会副主席王旭,就是这么感叹的—— 克雷西 发自 凹非寺 量子位 | 公众号 QbitAI 终于!当前的大模型开发生态,被一份报告、完整全景图谱讲清楚了。 就在第十届527蚂蚁技术日上,蚂蚁通过Coding范式、数据、模型部署等角度,对现有开源生态进行了全面完整的大剖析,从数据的视角揭示 了大模型开源生态的演进规律,如果你是大模型开发者或者潜在的开发者, 几乎研究好这份报告可能就够了 。 但这还不够,在报告出炉之前的周末,蚂蚁还发布了2025大模型开源生态全景图,涵盖19个技术领域、135个项目,进一步给出了大模型开 发生态的参考系。 大模型开发生态,是一场现实世界的黑客松。 大模型开源生态,为何是一场实时直播的黑客马拉松? 在去年的QCon(全球软件开发大会)上的报告和量子位的MEET 2025大会中,蚂蚁对开源社区给出了这样的判断: 开源社区的数据可以说既不全面,也不超前于时代,但是,它是跳出公司的一个客观视角。 今年的技术日上,蚂蚁针对开源生态又发布了新的报告,以及新的 ...
5小时满帧玩王者原神!只需2499元拥有电竞级体验,一加手机开大:三块芯片
量子位· 2025-05-28 05:59
白交 发自 成都 量子位 | 公众号 QbitAI 这年头,为了让你玩好游戏,手机厂商直接塞进三块芯片。 生怕你打游戏输得不服气(bushi)。 一加最新手机Ace5至尊系列,配备了由9400系列旗舰芯、灵犀触控芯和电竞Wi-Fi芯片组成的「电竞三芯」。 据说,这是行业首套游戏全链路芯片级硬件解决方案。 得益于这三款芯片,一加Ace5至尊版在安兔兔跑分上达到了3225260,是 目前所有天玑芯片手机的最高分 。 像玩一些这种《王者荣耀》《原神》《崩坏:星穹铁道》重载场景,可以实现 5小时+满帧运行 。 王者里团战打龙也是很顺畅了。 不过平均帧率接近满帧,现在已经不能代表很好的游戏体验了。真实环境中,即便手机是满帧,但仍然会出现卡顿的现象。 由于体验过好,一加 Ace 5 至尊版还成为2025 年《和平精英》职业赛事 PEL 指定用机,真·电竞级手机认证。 此次发布一共发布两款机型,一加 Ace 5 至尊版定价为2499元起,一加 Ace 5 竞速版售价1799元起。 一加直接塞进三块芯片 这三块芯片术业有专攻,它们分别从性能、触控、网络方面来提升游戏体验。 首先来看性能。 此次它搭载了天玑9400+,拥有第二 ...
北大校友王虹,将任法国高等研究所常任教授!2/3前辈为菲尔兹奖得主
量子位· 2025-05-28 05:59
量子位 | 公众号 QbitAI 破解挂谷猜想 的中国女数学家 王虹 ,又有新动向。 这一次,这位出身北大数学系的90后,将 加入法国高等研究所(IHES),担任常任教授 。 什么概念?目前,法国高等研究所只有7位常任教授,5位来自数学领域,另外2位是物理学 家。 鱼羊 发自 凹非寺 这5位数学家每一位都在数学界声名赫赫,包括分别在1998年和2022年获得数学最高奖—— 菲尔兹奖的Maxim Kontsevich和Hugo Duminil-Copin,2018年菲尔兹奖获得者Peter Scholze的合作者Dustin Clausen等等。 再算上历任IHES数学常任教授,13人中共有8人是菲尔兹奖获得者。 官方公布的消息显示: 王虹将于2025年9月1日正式入职。这是IHES和纽约大学的联合任职,她在担任IHES数学常 任教授的同时,也将担任纽约大学柯朗数学科学研究所数学教授。 菲尔兹奖获得者Hugo Duminil-Copin第一时间欢迎了他的新同事: 欢迎王虹加入成为我们的教职员工! 她在纽约大学关于这一成果的讲座,现场被挤得水泄不通: △ 图源:纽约大学 我希望她能在IHES享受我一直珍视的:宁静 ...
一个省略号提示+强化学习搞定大模型“过度思考”,中科院自动化所新方法:从强制推理到自主选择
量子位· 2025-05-28 04:22
AutoThink团队 投稿 量子位 | 公众号 QbitAI 在日益强调"思维能力"的大语言模型时代, 如何让模型在"难"的问题上展开推理,而不是无差别地"想个不停" ,成为当前智能推理研究的重 要课题。 中国科学院自动化研究所联合鹏城实验室 提出了一种高效的推理策略, 赋予推理大模型根据题目难度自主切换思考模式的能力: 通过一个小小的省略号作为提示词 + 多阶段强化学习,引导大模型自主决定是否深度思考、思考多少。 研究背景:大模型"想太多",是优点还是负担? 在大语言模型快速发展的今天,越来越多的模型开始具备"深度思考能力"。 比如,DeepSeek-R1系列模型引入了一种特别的提示结构:先 ,再 。也就是说,模型在回答之前会"思考"一番,生成一 整段 包含反复自我反思、自我验证 的逻辑推理,然后才给出结论[1]。这种方式是近来提升模型准确率的重要方法。"深度思考"的确带来了好 处,模型不再"张口就答",而是会分析、论证、验证;在复杂问题中,能显著提升答对率,避免"拍脑袋"行为。但是,如果问题本身很简单, 模型还有必要"苦思冥想"一大段吗? 答案是:未必。事实上很多情况下,模型在解决简单任务时也会机械地 ...
阿里通义发布并行计算新策略:1.6B等效4.4B,内存消耗骤降95%
量子位· 2025-05-28 04:22
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI 既能提升模型能力,又不显著增加内存和时间成本 ,LLM第三种Scaling Law被提出了。 对于 1.6B模型 ,能实现性能接近4.4B模型, 内存占用仅为后者的1/22,延迟增加量为1/6 。 由此提出假设:并行计算的规模(如路径数量)可能是提升模型能力的关键因素,而非仅依赖参数规模或推理时间的串行扩展(如生成更多 token)。 并且可直接应用于现有模型(如Qwen-2.5),无需从头训练。 这就是阿里通义团队提出的 PARSCALE 。 目前LLMs的优化主要有两种思路:参数扩展(如GPT-4)和推理时间扩展(如DeepSeek-R1),但会增加内存和时间成本。 阿里通义团队提出的新范式受CFG(无分类器引导)双路径推理机制的启发。 他们将CFG的并行思想从 " 生成阶段的推理优化 " 扩展为 " 训练和推理全流程的「计算缩放」 "。 让我们来扒一扒技术细节。 将CFG的并行思想扩展到计算缩放 PARSCALE对于CFG双路径的灵感迁移 CFG 通过同时运行有条件生成(输入提示词)和无条件生成(不输入提示词)两条路径,再通过加权平均融合结果,提升生 ...