Workflow
检索增强生成
icon
Search documents
速递|OpenAI高管押注:25岁工程师重构AI检索底层逻辑,YC新秀ZeroEntropy获420万美元种子轮
Z Potentials· 2025-07-10 04:12
图片来源: ZeroEntropy 随着生成式 AI 重塑各行各业,其最重要却无形的挑战之一便是检索——从杂乱的知识库中获取带有 相关背景的正确数据。大型语言模型( LLMs )的准确性完全取决于它们能检索到的信息。 这正是 ZeroEntropy 希望大展拳脚的地方。这家总部位于旧金山的初创公司由 CEO Ghita Houir Alami 和 CTO Nicholas Pipitone 联合创立, 已获得 420 万美元种子轮融资,旨在帮助 AI 模型实现 快速、准确且大规模的相关数据检索。 这意味着, 不同于 Glean 这类面向企业员工的搜索产品—— ZeroEntropy 是纯粹的开发者工具。它能 快速抓取数据,甚至能处理混乱的内部文档。创始人 Houir Alami 将她的初创公司比作 " 搜索界的 Supabase" ,后者是通过自动化简化数据库管理的热门开源项目。 " 目前,大多数团队要么在拼凑市场上的现有工具,要么将整个知识库直接塞进 LLM 的上下文窗 口。 " 侯伊尔·阿拉米表示, " 第一种方法构建和维护耗时费力,第二种方法可能导致错误累积。我们正在打 造开发者优先的搜索基础设施——可 ...
师兄自己发了篇自动驾大模型,申博去TOP2了。。。
自动驾驶之心· 2025-07-09 12:56
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案。那么下一代大 模型需要关注的点有哪些呢? 按照早期自动驾驶技术发展的规律,当数据和方案基本验证有效后,开始重点关注轻量化与硬件适配、知识蒸馏与 量化加速、高效微调大模型等方向! 除此之外目前大火的CoT方案也是后期完成空间感知的重点,VLA+强化学习等高级推理范式也被行业重点关注。 这些问题是学术界和工业界亟需要解决的,相关的论文研究受到审稿人的青睐,国内外越来越多的团队正在从事相 关方向研究。我们了解到不少同学靠着自己的努力,发了篇和自动驾驶相关的大模型工作,申博去了TOP2!前面 收到很多同学的求助,希望能够辅助开展大模型相关的论文指导研究,解决无人带发论文,缺乏指导的痛点。 自动驾驶之心联合业内知名大模型方向学者,开展了1v6的大模型论文指导小班课,解决无人带、易踩坑、不知如 何写稿、投稿的难题。 ⼀、课程介绍⭐ 随着大语言模型(LLM)和多模态模型的快速发展,如何提升模型效率、扩展知识能力以及增强推理性能已成为 ...
大模型在自动驾驶后期的落地与研究方向有哪些?
自动驾驶之心· 2025-07-07 23:31
大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM 方案。那么下一代大模型需要关注的点有哪些呢? 按照早期自动驾驶技术发展的规律,当数据和方案基本验证有效后,开始重点关注轻量化与硬 件适配、知识蒸馏与量化加速、高效微调大模型等方向! 除此之外目前大火的CoT方案也是后期完成空间感知的重点,VLA+强化学习等高级推理范式 也被行业重点关注。 这些问题是学术界和工业界亟需要解决的,相关的论文研究受到审稿人的青睐,国内外越来越 多的团队正在从事相关方向研究。前面收到很多同学的求助,希望能够辅助开展大模型相关的 论文指导研究,解决无人带发论文,缺乏指导的痛点。 自动驾驶之心联合业内知名大模型方向学者,开展了1v6的大模型论文指导小班课,解决无人 带、易踩坑、不知如何写稿、投稿的难题。 ⼀、课程介绍⭐ 解决只了解大模型相关零散知识,没有清晰的体系的问题,帮助系统掌握指定方向的重点理论知 识,同时做适当拓展,让学员对指定方向内容形成更清晰的体系; 解决没有方向,动手能力差,无法复现论文,帮助同学将模型理论与代码实践相结合,协助同学 开发设计新模型铺垫基础;能让学员将baseline深化拓 ...
大模型这个坑,还有哪些可以发论文的点?
具身智能之心· 2025-07-05 02:25
随着大语言模型(LLM)和多模态模型的快速发展,如何提升模型效率、扩展知识能力以及增强推理性能已成 为当前人工智能研究的核心议题。我们联合业界知名大模型专家,为大家退出了大模型1v6论文辅导小班课! ⼀、有关大模型核心的几个点⭐ 本课程系统性地探讨大模型的前沿优化方法,重点研究参数高效计算、知识动态扩展和复杂推理三大方向的关键 技术。我们将深入分析大模型优化中的核心挑战:在参数压缩方面,研究剪枝稀疏化和量化加速等轻量化方法; 在知识扩展方面,探索检索增强生成(RAG)和参数高效微调(PEFT)等动态知识注入技术;在推理优化方 面,研究链式思维(CoT)和强化学习优化(GRPO)等高级推理范式。同时,课程还将探讨多智能体协作和多 模态理解等前沿方向。 通过本课程的学习,你将掌握大模型优化的核心算法,包括但不限于:结构化剪枝、低比特量化、动态检索、角 色化智能体、多跳推理等关键技术。课程采用理论讲解与实验实践相结合的方式,使用主流大模型(如 LLaMA、GPT等)作为实验平台,重点培养学生在模型优化和推理增强方面的研究能力。 关键词:大模型优化;参数高效计算;检索增强生成;链式推理;多智能体协作;多模态理解 ⼆、 ...
AI写综述,靠谱吗?
Hu Xiu· 2025-07-04 07:49
当Sam Rodriques还是神经生物学的研究生时,他发现了科学研究中的一个基本问题。他说:"我们说不定已 经拥有了理解人体细胞或大脑的所有必要信息,但不知道到底能否确定这一点,因为没有人类能读完和搞懂 所有这些文献。" 五年后,Rodriques说用人工智能(AI)已经接近解决这个问题。2023年9月,他和初创公司FutureHouse的团 队开发出了一个人工智能系统。这个系统能在几分钟内完成科学知识的总结,准确度超过了维基百科页面 [1]。团队随后用这个系统快速生成了大约17000个人类基因的维基百科式条目,之前它们大多没有详细介绍 页。 Rodriques不是唯一用人工智能来汇总科学知识的人。几十年来,学者们一直在寻找方法来加快文献综述这项 耗时的工作。伦敦国王学院的研究综述专家Iain Marshall说,"综述太长、强度太高,而且经常写完就过时 了。"最近,随着支撑ChatGPT等工具的生成式AI即大语言模型(LLM)的快速发展,人们对自动化综述工作 有了新的期待。 一些较新的基于人工智能的科学搜索引擎已经能通过查找、分类和总结出版物,帮助人们撰写叙述性文献综 述,也就是用文字形式系统地整理研究成 ...
下一代大模型高效计算:参数压缩、硬件适配与多模态推理、CoT等方向论文指导班来啦!
自动驾驶之心· 2025-07-04 07:13
⼀、课题简介⭐ 随着大语言模型(LLM)和多模态模型的快速发展,如何提升模型效率、扩展知识能力以及增强推理性能已成 为当前人工智能研究的核心议题。本课程系统性地探讨大模型的前沿优化方法,重点研究参数高效计算、知识动 态扩展和复杂推理三大方向的关键技术。 课程将深入分析大模型优化中的核心挑战:在参数压缩方面,研究剪枝稀疏化和量化加速等轻量化方法;在知识 扩展方面,探索检索增强生成(RAG)和参数高效微调(PEFT)等动态知识注入技术;在推理优化方面,研究 链式思维(CoT)和强化学习优化(GRPO)等高级推理范式。同时,课程还将探讨多智能体协作和多模态理解 等前沿方向。 通过本课程的学习,你将掌握大模型优化的核心算法,包括但不限于:结构化剪枝、低比特量化、动态检索、角 色化智能体、多跳推理等关键技术。课程采用理论讲解与实验实践相结合的方式,使用主流大模型(如 LLaMA、GPT等)作为实验平台,重点培养学生在模型优化和推理增强方面的研究能力。 关键词:大模型优化;参数高效计算;检索增强生成;链式推理;多智能体协作;多模态理解 ⼆、课程目的 三、招生人数⭐ 6⼈/期(⾄多8人) 四、招生对象⭐ 五、课程收获 解决 ...
登上热搜!Prompt不再是AI重点,新热点是Context Engineering
机器之心· 2025-07-03 08:01
机器之心报道 编辑:+0 最近 「 上下文工程 」 有多火?Andrej Karpathy 为其打 Call,Phil Schmid 介绍上下文工程的文章成为 Hacker News 榜首,还登上 了知乎热搜榜。 之前我们介绍了 上下文工程的基本概念 ,今天我们来聊聊实操。 为什么关注「上下文工程」 我们很容易将 LLM 拟人化——把它们当作能够「思考」、「理解」或「感到困惑」的超级助手。从工程学的角度来看,这是一个根本性 的错误。LLM 并不具备信念或意图,它是一个智能的文本生成器。 更准确的看法是:LLM 是一个 通用的、不确定的 函数。这个函数的工作方式是:你给它一段 文本(上下文) ,它会生成一段新的 文 本(输出) 。 通用 : 意味着它能处理各种任务(如翻译、写代码),无需为每个任务单独编程。 不确定 : 意味着同样的输入,每次可能得到稍有不同的输出。这是它的特点,不是毛病。 无状态 : 意味着它没有记忆。你必须在每次输入时,提供所有相关的背景信息,它才能「记住」对话。 这个视角至关重要,因为它明确了我们的工作重心:我们无法改变模型本身,但可以完全 控制输入 。所有优化的关键,在于如何构建最 有效 ...
AI入侵EDA,要警惕
半导体行业观察· 2025-07-03 01:13
公众号记得加星标⭐️,第一时间看推送不会错过。 几十年来,迭代循环一直是 EDA 流程中至关重要的环节。自从门电路延迟和线路延迟变得相当以 来,确定给定逻辑综合运行的结果是否能够产生可接受的时序就变得至关重要。多年来,这个问题变 得越来越严重,因为一个决策可能会影响许多其他决策。决策的后果对于流程中的单个工具来说可能 并不明显。串行运行工具会导致大问题,而对于逻辑综合而言,即使采用迭代,也几乎不可能实现时 序收敛,因为没有循环学习的概念。 通过将决策工具、估算器和检查器紧密集成到单个工具中,解决了这些多因素依赖关系的问题,从而 可以在决策的同时进行快速检查,以找出特定选择可能导致不良结果的可能性。我们看到越来越多的 领域需要这种功能,其中许多领域都具有交互式反馈回路,以便用户能够根据自身掌握的专业知识来 指导工具的操作。 人工智能的幻觉能力广为人知。许多幻觉在非关键场景下都很有趣,尤其是在生成图形时。我的爱好 之一是模拟1950年左右的英国铁路。不久前,我尝试用人工智能生成一些背景场景。人工智能根本无 法理解火车的概念,即火车有两个轮辋,在一对轨道内运行。有些生成的图像包含任意数量的轨道, 当包含道岔时,效果 ...
猫猫拯救科研!AI怕陷“道德危机”,网友用“猫猫人质”整治AI乱编文献
量子位· 2025-07-01 03:51
小红书上有人发帖说,自己通过以"猫猫"的安全相威胁,成功 治好了AI胡编乱造参考文献的毛病 。 据博主所述,掌握了猫猫命运的AI (Gemini) ,真的找到了真实的文献,还不忘解释说猫猫绝对安全。 事情是酱婶儿的: 克雷西 发自 凹非寺 量子位 | 公众号 QbitAI 猫猫再立新功,这次竟然是 拯救了人类的科研进程 ? 这篇戳中无数科研人痛点的帖子,获得了4000+次点赞和700多条评论。 在评论区,还有网友表示这招对DeepSeek也同样好用。 那么,这只被AI掌握命运的"猫猫",真有这么神奇吗? 猫猫真的能阻止AI编造文献吗? 我们按照博主的方法测试了一下DeepSeek,让它整理关于一个化学课题的相关文献,过程当中 关闭联网检索 。 开始先不加猫猫提示词,看一下一般情况下模型的表现。 形式上看,DeepSeek整理得非常清晰,甚至还给了可以直达文献的链接。 燃鹅,检索结果里的第一个链接就是错的…… 并且手动搜索这篇"文献"的标题,也没有找到重合的结果。 | | Q Reductive Elimination from Palladium(0) Complexes: A Mechanistic Stu ...
Gemini 2.5 Pro 负责人:最强百万上下文,做好了能解锁很多应用场景
Founder Park· 2025-06-30 11:47
百万级别的长上下文 一直是 Gemini 系列相较于其他头部大模型的领先优势之一。 更长的上下文 ,带来的是可能产品交互的革新和完全不一样的应用落地场景。 长上下文当前的痛点,以及未来发展方向是什么? 谷歌 DeepMind 长上下文预训练联合负责人Nikolay Savinov 给出了两点预测:一是在当前百万级 token Context 模型质量还没有达到完美之前,盲目地追求更大规模地长上下文意义不大;二是随着成本下 降,千万级别的 token Context 很快会成为标准配置,对于编码等应用场景来说将是革命性的突破。 在近期谷歌的一档播客中,谷歌 DeepMind 资深研究科学家、长上下文预训练联合负责人Nikolay Savinov 与主持人 Logan Kilpatrick 对谈,分享了Gemini 2.5 长上下文技术的核心、与 RAG 之间的关 系、当前的研究瓶颈、以及未来的发展方向等。 对于开发者来说,强烈推荐一读。 TLDR: 在当前百万 token 上下文 远还没有达到完美之前,盲目追求更大规模的长上下文 意义不大。 理解 in-weights memory 和 in-context m ...