Workflow
语言模型(LLM)
icon
Search documents
AgentAuditor: 让智能体安全评估器的精确度达到人类水平
机器之心· 2025-06-27 04:02
论文题目: AgentAuditor: Human-Level Safety and Security Evaluation for LLM Agents 论文链接: https://arxiv.org/abs/2506.00641 LLM 智能体(LLM Agent)正从 "纸上谈兵" 的文本生成器,进化为能自主决策、执行复杂任务的 "行动派"。它们可以使用工具、实时与环境互动,向着通用人工 智能(AGI)大步迈进。然而,这份 "自主权" 也带来了新的问题:智能体在自主交互中,是否安全? 研究者们为这一问题提出了许多基准(benchmark),尝试评估现有智能体的安全性。然而,这些基准却面临着一个共同的问题:没有足够有效、精准的评估器 (evaluator)。传统的 LLM 安全评估在单纯的评估生成内容上表现优异,但对智能体的复杂的环境交互和决策过程却 "鞭长莫及"。现有的智能体评估方法,无论 是基于规则还是依赖大模型,都面临着 "看不懂"、"看不全"、"看不准" 的困境:难以捕捉微妙风险、忽略小问题累积、对模糊规则感到困惑。基于规则的评估方 法往往仅依靠环境中某个变量的变化来判断是否安全,难以正确识别智能 ...
AI 开始「自由玩电脑」了!吉大提出「屏幕探索者」智能体
机器之心· 2025-06-27 04:02
近期,吉林大学人工智能学院发布了一项基于强化学习训练的 VLM 智能体最新研究《ScreenExplorer: Training a Vision-Language Model for Diverse Exploration in Open GUI World》。它让视觉语言模型(VLM)真正学会了「自我探索 GUI 环境」。 论文地址:https://arxiv.org/abs/2505.19095 项目地址:https://github.com/niuzaisheng/ScreenExplorer 该工作带来三大核心突破: 作者简介:本文第一作者牛润良是吉林大学人工智能学院博士研究生,研究方向包括大模型智能体、强化学习,专注于 GUI Agent。通讯作者王琪为吉林大学人 工智能学院研究员,研究方向包括数据挖掘、大模型、强化学习。 迈向通用人工智能(AGI)的核心目标之一就是打造能在开放世界中自主探索并持续交互的智能体。随着大语言模型(LLMs)和视觉语言模型(VLMs)的飞速发 展,智能体已展现出令人瞩目的跨领域任务泛化能力。 而在我们触手可及的开放世界环境中,图形用户界面(GUI)无疑是人机交互最普遍 ...
舍弃CUDA编程!CMU等用几十行代码将LLM编译成巨型内核,推理延迟可降6.7倍
机器之心· 2025-06-21 01:33
机器之心报道 编辑:杜伟 在 AI 领域,英伟达开发的 CUDA 是驱动大语言模型(LLM)训练和推理的核心计算引擎。 MPK 的易用性很强,你只需要几十行 Python 代码就能将 LLM 编译成一个高性能巨型内核,实现快速推理,整个过程无需 CUDA 编程。 不过,CUDA 驱动的 LLM 推理面临着手动优化成本高、端到端延迟高等不足,需要进一步优化或者寻找更高效的替代方案。 近日,CMU 助理教授贾志豪(Zhihao Jia)团队创新玩法,推出了一个名为 「Mirage Persistent Kernel(MPK)」的编译器,可以自动将 LLM 转化为优化的巨型 内核(megakernel),从而将 LLM 推理延迟降低 1.2 到 6.7 倍。 MPK 将 LLM 推理延迟推近硬件极限。在单个 A100-40GB GPU 上,MPK 将 Qwen3-8B 每个 token 的延迟从 14.5 毫秒 (vLLM/SGLang) 降低到 12.5 毫秒,逼近基于 内存带宽计算得出的 10 毫秒理论下限。 GitHub 地址:https://github.com/mirage-project/mirage/ ...
2025 年了,企业的 AI 采购预算都在怎么花?
机器之心· 2025-06-20 17:04
本文来自PRO会员通讯内容,文末关注「机器之心PRO会员」,查看更多专题解读。 a16z 近期发布 2025 年度的「企业如何采购 AI」主题报告,该报告基于对全球企业高管的深度访谈与广泛调 研,揭示了 2025 年企业在以 LLM 为代表的生成式 AI 的采购、部署与预算分配上的关键趋势。 目录 01. 为何企业的 AI 预算只增不减? 为什么企业在的 AI 支出一直在增加?企业的 AI 预算构成都有哪些变化?企业部署 AI 的目的在如何转变?... 02 . 货比三家,什么样的 LLM 能让企业掏钱? 为什么企业更看重 LLM 的「差异化」而非「商业化」?为什么开源模型越来越受欢迎?大小企业选择 LLM 的偏好有何区 别?... 03. 企业如何像采购传统软件一样采购 AI 模型? 企业现在采购 AI 模型都考虑哪些因素?外部基准对 AI 采购有什么影响?... ① 该报告是 a16z 的研究主题系列之一,其研究团队此前在 2024 年 2 月发布「企业构建和购买新一代人工智能的 16 项变革」。该报告从数十位《财富》500 强企业和顶级企业的领导者和 70 多位高管进行访谈和调查,得到了 16 项核心发 ...
速递|Meta百亿美元收购Ilya遭拒,扎克伯格转身挖走SSI CEO、Siri负责人和GitHub前掌门人
Sou Hu Cai Jing· 2025-06-20 13:31
图片来源:Unsplash 在宣布以143亿美元投资人工智能初创公司 Scale AI,并挖走其创始人 Alexandr Wang 后,Meta CEO 马克·扎克伯格显然才刚刚开始他的 AI 人才收割战。 据知情人士透露, 扎克伯格的 AI 豪掷计划已进一步瞄准了 Safe Superintelligence 的 CEO、前苹果高管 Daniel Gross,以及 GitHub 前 CEO Nat Friedman。 这本不是扎克伯格最初设想的合作方式。 消息人士称,今年早些时候,Meta 曾试图直接收购 Safe Superintelligence——这家由 OpenAI 联合创始人 Ilya Sutskever 创立的公司,在今年4月的一轮融 资中估值达到了320亿美元。然而,Sutskever 不仅拒绝了收购提议,也婉拒了 Meta 对其本人的挖角邀请。 在与 Sutskever 谈判破裂后不久,扎克伯格便转向与 Gross 展开接洽。据悉,Gross 除了领导 Safe Superintelligence 外,还与 Friedman 共同创办了风投机构 NFDG(取自两人姓名首字母)。 消息称, G ...
OpenAI路线遭质疑,Meta研究员:根本无法构建超级智能
3 6 Ke· 2025-06-20 12:00
超级智能(Superintelligence)是处于 AGI 之上、甚至通用能力超过人类的更高维 AI 发展方向。 学术头条在不改变原文大意的情况下,对整体内容做了精编,如下: 然而,在 Meta AI 研究员 Jack Morris 看来,Altman 提到超级智能的"工程问题",在于"构建大量适用于不同任务的 RL 环境,并训练 LLM 同时处理所有 这些任务"。他认为,这一由 OpenAI 等公司当前大力推进的路径——基于 LLM 的 RL——根本无法构建超级智能。 "我谦卑的预测是:LLM 将继续在训练分布内的任务上变得更好。随着我们收集更多类型的任务并进行训练,这将产生在广泛任务上越来越有用的 LLM。但它不会成为一个单一的超级智能模型。" Morris 在一篇题为"Superintelligence, from First Principles"的博客中,探讨了构建超级智能的 3 种可能方式:完全由监督学习(SL)、来自人类验证者 的强化学习(RL)、来自自动验证器的 RL。 扎克伯格不惜以一亿美金年薪挖角 OpenAI 等竞争对手的动作背后,便暴露了 Meta 等头部玩家追求"超级智能"的巨大野 ...
Andrej Karpathy:警惕"Agent之年"炒作,主动为AI改造数字infra | Jinqiu Select
锦秋集· 2025-06-20 09:08
"2025年将是智能体之年"几乎已经成为科技圈的共识。 Andrej Karpathy却对这股热潮提出了截然不同的看法。 在最近的旧金山AI Startup School主题演讲中,这位OpenAI创始成员、曾领导特斯拉Autopilot视觉团队的AI专家,对当前AI创业路径提出了两个核心看法: 第一,我们应对AI的未来抱有"十年的耐心"。他直言,每当看到"2025年将是智能体之年"这样的炒作时都会感到担忧,并强调这更将是一场需要"十年的长跑"。自 动驾驶就是例证:2013年的完美演示,12年后仍是未竟之业。一个惊艳的技术演示与一个能在现实世界中达到极致可靠性的产品之间,存在着极其漫长的鸿沟。 第二,当下应专注于打造"钢铁侠战衣"式的增强工具,而非追求全自动化的"机器人"。考虑到LLM仍然"易于犯错"的现实,更明智的做法是开发能让人类高效监督 和验证AI工作的部分自治产品。 为了说明当前我们面临的巨大变革,Karpathy系统性地提出了软件演进的三阶段理论——从人类编写代码的1.0时代,到神经网络权重的2.0时代,再到以自然语言为 编程接口的3.0时代。 他将大语言模型比作一种全新的操作系统:LLM充当"CP ...
Andrej Karpathy最新演讲爆火!人类已进入「说话就能编程」的软件3.0时代
机器之心· 2025-06-20 00:58
机器之心报道 机器之心编辑部 回顾 OpenAI 的早期成员,奥特曼成为 AI 浪潮的掌舵人之一,Ilya Sutskever 致力于探索 AI 安全的理想边界,而 Andrej Karpathy 则走上了一条「建造 并分享」的道路。 他痴迷于用代码将 AI 蓝图变为现实,又乐此不疲地把建造过程做成公开课分享给世界。 所以,当他人在构建一家伟大的公司时,Karpathy 同时在构建着 AI 应用与下一代的 AI 建设者。 6 月 17 日,Andrej Karpathy 在 YC AI Startup School 活动中发表了约 40 分钟的演讲,主题为《Software in the era of AI》。 视频链接: https://www.youtube.com/watch?v=LCEmiRjPEtQ Andrej 结合他在斯坦福、OpenAI 和特斯拉的工作经验,洞察到一个转变正在发生——软件正在再次经历变革。我们已经进入了「 软件 3.0」时代,在这 个时代, 自然语言成为新的编程接口,而模型则完成剩下的工作。 他探讨了这一转变为开发者、用户以及软件设计本身带来了什么,并指出我们不仅仅是在使用新工 ...
信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始
机器之心· 2025-06-18 06:09
机器之心报道 编辑:+0 人类从农耕时代到工业时代花了数千年,从工业时代到信息时代又花了两百多年,而 LLM 仅出现不到十年,就已将曾经遥不可及的人工智能能力普及给大 众,让全球数亿人能够通过自然语言进行创作、编程和推理。 LLM 的技术版图正以前所未有的速度扩张,从不断刷新型号的「模型竞赛」,到能够自主执行任务的智能体,技术的浪潮既令人振奋,也带来了前所未有 的挑战。 如何在海量信息中建立真正的认知深度,而非仅仅成为一个热点的追随者?也许可以从「做题」开始。 最近,MIT CSAIL 分享了一份由工程师 Hao Hoang 编写的 LLM 面试指南,精选了 50 个关键问题,旨在帮助专业人士和AI爱好者深入理解其核心概念、 技术与挑战。 文档链接:https://drive.google.com/file/d/1wolNOcHzi7-sKhj5Hdh9awC9Z9dWuWMC/view 我们将这 50 个问题划分为了几大主题,并附上图示和关键论文。希望这份指南能成为您的「寻宝图」,助您开启 LLM 探索之旅,无论是在面试中,还是 在未来的技术浪潮中,都能保持清醒的认知和持续探索的热情。 LLM 发 展历程。 ...
LLM 翻车现场,ChatGPT 挑战 1979《Video Chess》惨败:连车马象都认错
3 6 Ke· 2025-06-17 09:12
Group 1 - The core event involves ChatGPT losing a chess match against the Atari 2600 chess engine, highlighting the limitations of AI in discrete systems like chess [2][4] - The match was initiated by Robert Jr. Caruso as a nostalgic experiment, where ChatGPT expressed confidence in winning but ultimately struggled with basic chess rules and state tracking [4][5] - The performance of ChatGPT revealed significant flaws, such as misidentifying pieces and losing track of the game state, leading to its eventual resignation after 90 minutes of play [4][5] Group 2 - The underlying issue is that ChatGPT, as a language model, is not designed for tasks requiring state tracking, which is crucial in games like chess [5] - Unlike specialized chess engines like Stockfish, ChatGPT lacks a defined structure for representing game states and rules, resulting in confusion during gameplay [5] - The incident raises questions about the true capabilities of AI, particularly in maintaining logical consistency in more complex scenarios beyond simple games [7]