Workflow
RAG(检索增强生成)
icon
Search documents
猫猫拯救科研!AI怕陷“道德危机”,网友用“猫猫人质”整治AI乱编文献
量子位· 2025-07-01 03:51
小红书上有人发帖说,自己通过以"猫猫"的安全相威胁,成功 治好了AI胡编乱造参考文献的毛病 。 据博主所述,掌握了猫猫命运的AI (Gemini) ,真的找到了真实的文献,还不忘解释说猫猫绝对安全。 事情是酱婶儿的: 克雷西 发自 凹非寺 量子位 | 公众号 QbitAI 猫猫再立新功,这次竟然是 拯救了人类的科研进程 ? 这篇戳中无数科研人痛点的帖子,获得了4000+次点赞和700多条评论。 在评论区,还有网友表示这招对DeepSeek也同样好用。 那么,这只被AI掌握命运的"猫猫",真有这么神奇吗? 猫猫真的能阻止AI编造文献吗? 我们按照博主的方法测试了一下DeepSeek,让它整理关于一个化学课题的相关文献,过程当中 关闭联网检索 。 开始先不加猫猫提示词,看一下一般情况下模型的表现。 形式上看,DeepSeek整理得非常清晰,甚至还给了可以直达文献的链接。 燃鹅,检索结果里的第一个链接就是错的…… 并且手动搜索这篇"文献"的标题,也没有找到重合的结果。 | | Q Reductive Elimination from Palladium(0) Complexes: A Mechanistic Stu ...
Gemini 2.5 Pro 负责人:最强百万上下文,做好了能解锁很多应用场景
Founder Park· 2025-06-30 11:47
百万级别的长上下文 一直是 Gemini 系列相较于其他头部大模型的领先优势之一。 更长的上下文 ,带来的是可能产品交互的革新和完全不一样的应用落地场景。 长上下文当前的痛点,以及未来发展方向是什么? 谷歌 DeepMind 长上下文预训练联合负责人Nikolay Savinov 给出了两点预测:一是在当前百万级 token Context 模型质量还没有达到完美之前,盲目地追求更大规模地长上下文意义不大;二是随着成本下 降,千万级别的 token Context 很快会成为标准配置,对于编码等应用场景来说将是革命性的突破。 在近期谷歌的一档播客中,谷歌 DeepMind 资深研究科学家、长上下文预训练联合负责人Nikolay Savinov 与主持人 Logan Kilpatrick 对谈,分享了Gemini 2.5 长上下文技术的核心、与 RAG 之间的关 系、当前的研究瓶颈、以及未来的发展方向等。 对于开发者来说,强烈推荐一读。 TLDR: 在当前百万 token 上下文 远还没有达到完美之前,盲目追求更大规模的长上下文 意义不大。 理解 in-weights memory 和 in-context m ...
全面拥抱AI后,OceanBase推出开箱即用RAG服务
Nan Fang Du Shi Bao· 2025-05-17 09:32
5月17日,升级AI战略后的国产数据库企业OceanBase迎来了第三届开发者大会。会上,OceanBase发布 面向AI的应用产品PowerRAG,提供开箱即用的RAG(检索增强生成)应用开发能力;全新推出"共享 存储"产品,开创性实现对象存储与事务型数据库(TP)的深度集成。 OceanBase AI战略一号位、CTO杨传辉表示,OceanBase正致力于构建Data×AI能力,面向AI时代推动一 体化数据库向一体化数据底座的战略演进。此前,CEO杨冰曾通过全员信宣布公司全面进入AI时代。 从一体化数据库 向一体化数据底座演进 AI时代带来了新的数据难题,已成为行业共识。蚂蚁集团CTO何征宇在大会分享中指出,海量的互联 网数据成就了今天的大模型,但大模型幻觉问题的源头也是数据问题。数据决定着大模型的能力上限, 且依旧有四大挑战:一是数据的获取成本显著增加,二是严谨的行业数据稀缺且流动困难,三是多模态 数据需要更强的处理能力,四是数据的质量评估难。 面对行业的真实需求,OceanBase正在大胆探索。杨传辉表示,OceanBase致力于从一个一体化数据库向 一个一体化数据底座演进,通过一套引擎同时支持TP/ ...