PaperQA2
Search documents
Nature:首个能写综述论文的开源AI模型来了,大幅减少科研“幻觉”,堪比人类专家
生物世界· 2026-02-06 04:26
撰文丨王聪 编辑丨王多鱼 排版丨水成文 科学进步取决于科研人员综合日益增多的文献资料的能力,面对科学文献的爆炸式增长,科研人员如何才能快速筛选、总结海量文献? 大语言模型 (LLM) 是 否能够在这方面为科研人员提供帮助? 在日常生活中,很多人会用到 ChatGPT、DeepSeek 等大语言模型来聊天、写邮件或生成答案,但当你问它一个专业、前沿的科学问题,它可能会给出看似合理 但实际虚构的答案,甚至编造根本不存在的论文引用。这种"幻觉"问题在科研领域尤为致命,因为准确性是科学的生命线。 而现在,一项发表于 Nature 期刊的研究给出了解决方案—— OpenScholar , 这是一个 专为科研打造的 AI 助手,不仅能准确回答复杂的科学问题,生成 综述 论文 ,还解决了 AI 喜欢胡编乱造的"幻觉"难题。 该研究来自 华盛顿大学、艾伦人工智能研究所,于 2026 年 2 月 4 日在线发表于 Nature 期刊,论文题 为: Synthesizing scientific literature with retrieval- augmented language models 。 OpenScholar ...
助力降低AI引文幻觉提升准确率 新款开源语言模型与人类专家相仿
Zhong Guo Xin Wen Wang· 2026-02-05 07:28
本项研究相关示意图(图片来自论文)。施普林格·自然 供图 助力降低AI引文幻觉提升准确率 新款开源语言模型与人类专家相仿 中新网北京2月5日电 (记者 孙自法)国际知名学术期刊《自然》最新发表一篇计算机科学论文称,研究 人员开发出一个开源语言模型OpenScholar,其在进行准确文献综述方面可超越商用大语言模型(LLM)。 在本项研究开展的实验中,GPT4o会在78%-90%的情况下出现引文幻觉,而OpenScholar的引文准确率 却与人类专家相仿。 论文作者指出,虽然OpenScholar后续仍需进一步优化,但该AI工具有望帮助科学家处理复杂且日益繁 重的科学文献综述任务。 来源:中国新闻网 编辑:熊思怡 广告等商务合作,请点击这里 本文为转载内容,授权事宜请联系原著作权人 中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。 关注中新经纬微信公众号(微信搜索"中新经纬"或"jwview"),看更多精彩财经资讯。 据介绍,科学文献综述对于支持循证决策、微调科学过程和引导新发现都很重要。然而,文献发表数量 的增长使研究人员很难掌握全部资讯。大语言模型可以提供协助,但却很容易出错, ...
引文幻觉大幅下降的AI模型诞生
Ke Ji Ri Bao· 2026-02-04 23:03
团队总结道,以上结果和引文幻觉大幅下降证明了"OpenScholar"有望支持和推动进一步研究工作。但 他们指出,该系统仍有局限性并强调基于语言模型的系统无法使科学文献综述完全自动化。他们向学界 同时开放"ScholarQABench"和"OpenScholar",以鼓励进一步研究和优化。 【总编辑圈点】 科研人员每天寻找有用的论文,相当于在信息的"海洋"里捞"珍珠"。但现在海水暴涨,真正有用之物和 以假乱真之物一起浮上了水面。以前大家用的是通用的"万能捞网",比如GPT。但它的网眼太大,捞上 来的有可能是"塑料珠子",也就是假的或错误的引文,需花大量时间去挑,还可能会被误导。本文中 的"OpenScholar",是一个专门为这片科学海洋设计的网。它不追求万能,而追求可靠,而且所有科学 家都能一起改进这个工具,让它更准确。这有望把科研人员从繁琐、易错的文献苦海中部分解放出来, 让他们能把宝贵精力用在真正的思考和发现上。这正是科学工具走向可信化的重要一步。 《自然》4日报道了一个开源语言模型"OpenScholar",其在准确进行文献综述方面可超越商用大语言模 型。比如,在该研究开展的实验中,GPT4o会在78 ...
AI写综述,靠谱吗?
Hu Xiu· 2025-07-04 07:49
Core Insights - The article discusses the advancements in artificial intelligence (AI) that are enabling faster and more efficient literature reviews in scientific research, particularly through the development of AI systems like FutureHouse's PaperQA2, which can summarize vast amounts of scientific knowledge quickly and accurately [1][6]. Group 1: AI in Literature Review - AI systems are being developed to automate the process of literature reviews, with tools like Consensus and Elicit helping researchers summarize and categorize scientific publications [2][4]. - Despite advancements, current AI tools cannot independently produce high-quality systematic reviews, which require rigorous methodologies and meta-analyses [2][3]. - The emergence of generative AI models has raised concerns about the potential for producing low-quality or misleading reviews, as these models may not adhere to established research practices [2][3][10]. Group 2: Challenges and Limitations - Systematic reviews involve at least 25 rigorous steps, making them time-consuming and complex, often taking months or years to complete [7][8]. - Many AI tools, including Elicit, are limited to searching open-access papers and abstracts, which restricts their ability to access full-text articles behind paywalls [5][6]. - The performance of AI systems in generating literature reviews is still under scrutiny, with experts emphasizing the need for transparency and reproducibility in the review process [9][12]. Group 3: Future Directions - There is ongoing research to improve AI tools for literature reviews, with a focus on enhancing their efficiency and accuracy while maintaining rigorous standards [9][12]. - Non-profit organizations are being encouraged to participate in the development of AI tools to ensure reliability and transparency in scientific literature synthesis [12]. - Funding initiatives are being announced to support the development of evidence synthesis systems, indicating a growing interest in improving the quality of literature reviews through AI [12].