AI前线
Search documents
AI 已能写 80% 代码,但 Agent 也有致命短板!OpenAI Codex 技术总监:问错了,比不会写更麻烦
AI前线· 2026-03-28 05:33
翻译 | 核子可乐 策划 | Tina 编辑 | 蔡芳芳 "大多数工程师在适应工具,而少数人会在不满中重写工具。" OpenAI Codex 技术负责人 Michael Bolin 就是典型的后者。从 Google Calendar 到 Facebook 的 Buck 构建系统、再到虚拟文件系统 Eden,以及如今 OpenAI 的 Codex,这位工程师的职业轨迹, 几乎贯穿了过去十多年软件工程基础设施的关键演进。 在最近一期 The Developing Dev 播客中,主持人 Ryan 与 Michael Bolin 展开了一场横跨 20 年工程 实践的深度对话。在这次访谈中,他回顾了自己从"写 JavaScript 的工程师"到主导开发工具体系的转 变过程,也坦诚讲述了其中的判断失误、能力边界与成长代价。更重要的是,他试图回答一个当下所 有工程师都在面对的问题:在 AI 正在重塑开发方式的时代,哪些能力依然值得坚持,哪些又必须被 重新理解。 在他看来,真正拉开差距的,从来不是写代码的速度,而是你选择解决什么问题,以及你如何定 义"更好的系统"。 其中几个值得关注的关键观点包括: 很多工程突破,源于对" ...
AI 一键生成网站之后,最残酷的差距出现了:代码不再值钱,审美决定生死
AI前线· 2026-03-28 05:33
作者 | RedMonk 译者 | 平川 策划 | Tina 去年底,一个网站在开发者和设计圈同时刷屏——F1 车手 Lando Norris 的个人官网上线了。不是因 为内容,而是因为体验:层层叠加的 3D 动画、会"呼吸"的页面结构、随着滚动实时变化的头盔模 型,以及几乎无处不在的微交互细节。 这不是那种"看起来不错"的网站,而是那种你会忍不住停下来、反复探索、甚至去研究它到底是怎么 做出来的网站。 Syntax 联合主持人、知名前端开发者 Wes Bos 也被吸引了进去。他做了一件典型的"极客操作":直 接把这个网站的 7.5 万行代码全部下载下来,一行一行地翻。结果越看越震惊——这个网站不仅仅是 炫技,而是一个被精心打磨到极致的作品。 这个网站背后是多层 3D 渲染、深度图驱动的视差效果、shader 实现的动态遮罩、基于 glTF 的实时 头盔渲染,以及一套主要依赖 transform 属性 的性能优化动画体系。更关键的是:这些复杂技术, 并不是为了"展示技术",而是为了服务一种非常明确的目标——让用户停下来,感受这个品牌。 Wes Bos 直言,这个网站最重要的不是技术,而是"心思"。从一个简单的 ...
全网疯传!Claude最新模型意外曝光:全面碾压Opus 4.6,强到让Anthropic不敢发布
AI前线· 2026-03-27 11:12
作者 | 木子 Anthropic"手滑"泄露了最强新模型,但更戏剧的是,他们本来还不太敢发。 因为这个模型发现漏洞、攻击漏洞的"黑客能力"太强了。 据《财富》消息,Anthropic 在未公开的草稿中指出: "与此前最强模型 Claude Opus 4.6 相比,Capybara(卡皮巴拉,新模型的内部代号)在软 件编程、学术推理和网络安全等测试中取得了显著更高的分数。" 这个"卡皮巴拉"其实还有个真名,叫 "Claude Mythos" (直译过来就是"神话")。 目前,Anthropic 的 Claude 模型分为三档: 而"神话"Mythos,"模"如其名,确实也是一个比 Opus 更强、更昂贵的新层级。 从表面上看,Mythos 在 编程、推理,以及网络安全测试 中的表现提升,像是三项独立能力的增 强。但在安全领域,这三者实际上恰恰能构成一条完整的"攻击能力链": 首先,编程能力决定模型能不能真正"看懂系统":不仅是读代码,还包括理解模块之间如何交互、逻 辑是怎么实现的;而且还可以在需要时,把这些理解转化为可执行的利用代码(exploit)或自动化脚 本。 其次,强悍的推理能力可以做"攻击路径的规划 ...
用得越多、失业越快?GitHub 大改 Copilot 规则:默认拿个人代码训练 AI,还搬出 Anthropic 挡枪!
AI前线· 2026-03-27 03:45
整理 | 褚杏娟 当地时间 3 月 26 日,GitHub 宣布,自 4 月 24 日起,除非用户主动选择退出,Copilot Free、 Pro 和 Pro+ 用户与 Copilot 的交互数据将被用于训练和改进其 AI 模型。此次调整不适用于 Copilot Business 和 Copilot Enterprise 用户。此外,免费获得 Copilot Pro 权限的学生和教师 不受此次更新影响。 GitHub 强调用户仍然保有选择权。对于不希望参与训练的个人用户,可以在设置中的 "Privacy (隐私)"选项里手动退出。GitHub 强调会提前 30 天通知用户,并允许随时退出。不过,值得 注意的是,Free、Pro 和 Pro+ 个人用户被默认纳入了训练范围,需要自行设置退出。 被吐槽很难找到的退出设置 被拿去训练模型的数据 根据 GitHub 的说明,可被用于模型训练的数据包括: 不过,GitHub 也划出了一些不会被纳入本次项目的数据范围: 官方特意使用了"静态存储"这个说法,是因为当用户主动使用 Copilot 时,Copilot 确实会处理来 自私有仓库的代码。这些交互数据是运行服务所必需 ...
堆推理链全错了!林俊旸离职首曝:曾在阿里 Qwen 踩中一个“致命”技术误区
AI前线· 2026-03-27 03:45
在外界围绕"Harness Engineer"讨论得热火朝天之际,阿里千问技术负责人林俊旸在离职后首次公开发声。 昨天深夜,他发布了一篇长文 《From "Reasoning" Thinking to "Agentic" Thinking》 (从"推理"思维到"智 能体思维"),对 AI 下一波能力跃迁作出了一次系统性的判断:大模型的未来,不是继续把推理链拉得更长,而 是转向一种为了行动而思考、在环境中思考、并通过反馈闭环持续修正的 "智能体思维" 。 在这篇文章中,林俊旸罕见复盘了 Qwen 在训练过程中的一次关键尝试 ,以及他为何最终改变了判断。 他在文中提到,2025 年初,团队曾试图挑战一件事: 把 thinking 和 Instruct 模式合并到同一个模型中。 在他 的理想设定里,一个真正先进的模型,不应只有"会不会思考"这一个开关,而应该能够根据提示词和上下文,自 动判断该投入多少推理计算:什么问题可以直接回答,什么问题需要多想一会儿,什么问题又值得显著增加计算 量。 Qwen3 正是这一方向的一次大胆尝试, 它首次引入了混合思维模式 。但在林俊旸看来,结果并不理想。 合并之后, thinkin ...
微信、QQ能接龙虾了,然后呢?| 加入 InfoQ 龙虾线上辅导
AI前线· 2026-03-27 03:45
微信和 QQ,终于开始开放它真正意义上的"Agent 入口"。 过去十年,微信是内容分发平台,是社交网络,是支付工具,但始终不是"生产工具"。 但随着腾讯把 Agent 能力逐步接入微信、QQ,一个更实质的变化正在发生: 聊天窗口,正在变成操作系统。 进群三步:扫码加小助手→备注「龙虾」→进群 群内独占:装机指导 + 专属下载链接 + 实战模板 进阶福利:贡献案例 / 参与共创,赢限定礼物 腾讯龙虾,哪款适合你? 腾讯现在发布了至少 3 种"龙虾形态"。 而对于微信生态的企业和普通人,真正关键的问题是—— 当入口打开之后,用户到底该怎么用? 有的人卡在安装,有的人困在装完不知道怎么用。 所以这次,InfoQ 和腾讯云联合发起了"龙虾线上辅导",教你养好龙虾。 第一类:Lighthouse 云端虾 这是最接近"生产力中枢"的版本。 它跑在云端,意味着两件事: 一是算力更稳定,可以承载复杂任务; 二是和本地环境隔离,更适合对安全、隐私敏感的场景。 你可以把它理解为长期在线、可以持续工作的远程助理。 第二类:Workbuddy自研虾 它直接跑在你的电脑上。 你不在电脑前,也可以通过微信下指令,让 Agent 随时响 ...
35 年只卖设计,今天亲自下场造芯!Arm 首款自研芯片发布,Meta 抢下首单
AI前线· 2026-03-26 05:17
整理 | 华卫 36 年来,半导体与软件公司 Arm 一直将芯片设计授权给英伟达、苹果等企业使用,如今终于开始自 主研发并制造自有芯片。 Arm 选择推出 CPU 而非 GPU,这一点同样值得关注。 代理式 AI 基础设施崛起 AI 系统正日益以全球规模持续运行。在过去,人是计算环节的瓶颈——人们与系统的交互速度决定 了工作推进的速度。而在代理式 AI 时代,因为软件智能体可自主协同任务、与多个模型交互,并实 时做出决策,这种局限性将不复存在。 随着 AI 系统持续运行且工作负载复杂度不断提升,CPU 已成为现代基础设施中决定运行节奏的关键 要素——负责保持分布式 AI 系统大规模的高效运行。在现下的 AI 数据中心中,CPU 管理数千个分 布式任务,包括协调加速器、管理内存与存储、调度工作负载、跨系统迁移数据,加上当今的代理式 AI 场景兴起,CPU 还需面向海量智能体实现大规模协同调度。 这一转变对 CPU 提出了全新要求,驱动处理器架构的演进。 Arm Neoverse 现已成为当今众多领先超大规模云服务及 AI 平台的核心支撑,包括 Amazon Graviton、Google Axion、Micro ...
《中国金融机构人才发展与培训白皮书(2026)》发布!助力金融机构打造“人 + 智能体”协同的超级员工梯队 | 极客时间企业版
AI前线· 2026-03-26 05:17
作者 | 极客时间企业版 AI 时代,金融人才培养正在经历一场从"课程交付"到"生产力跃迁"的深刻变革。锻造"政治过硬、能力过硬、作风过硬"的金融人才队伍,成为金融强国建设 的底座支撑。 当数字化浪潮席卷各行各业,金融业不仅率先拥抱技术变革,更在一次次迭代中重塑着行业边界。然而,AI 时代的到来正在重新定义"领先":如何将过 往的数字化积累,转化为面向 AI 时代的系统性竞争优势?如何让人才梯队从"懂技术"跃迁至"与 AI 协同进化",在数智化转型的深水区再向前跨越一大 步?这已成为决定金融业未来竞争力的核心命题。 这种紧迫感在市场中已有清晰体现。2026 年春招季,券商对人才的需求呈现"冰火两重天":一方面,投顾和金融科技岗位需求爆棚, AI 能力成为"硬 通货 ",多家头部券商明确要求候选人掌握大模型技术、智能体开发等核心技能;另一方面,传统投行、研究等岗位招聘持续收缩。这一信号表明,金 融机构对人才的期待已发生根本性转变——不再是"懂金融即可",而是" 懂金融、懂技术、懂 AI "的复合型人才。 AI 渗透率持续提升,但"如何用得好"成关键 调研中,76% 的受访者认可"技术成熟度"是推动 AI 落地的 ...
谷歌迎来“DeepSeek时刻”!TurboQuant引爆AI圈、全球开发者疯狂复现:6倍无损压缩,内存股集体暴跌
AI前线· 2026-03-26 05:17
整理 | 华卫 即使你对生成式 AI 模型的内部运作了解不多,也大概率知道它们极其吃内存。正因如此,如今想买一根普通内存条都免不了被狠狠加价。 最近,谷歌研究院发布了 TurboQuant 压缩算法,能够在提升运行速度并保持准确性不变的前提下,降低大语言模型(LLM)的内存占用。如果 TurboQuant 成功落地,可将 AI 运行时的 "工作内存",也就是键值缓存(KV cache)压缩至少 6 倍,并在 H100 显卡上实现最高 8 倍的速度提升,从 而大幅降低 AI 运行成本。 Cloudflare 的 CEO Matthew Prince 等人甚至称,这是谷歌的 "DeepSeek 时刻"。此前,中国 AI 模型 DeepSeek 实现这样的效率飞跃:该模型在性能 保持竞争力的情况下,训练成本仅为对手的零头,且使用的芯片性能较差。 而 TurboQuant 最关键的亮点是:精度零损失。无需微调,无需训练数据。直接接入任意 Transformer 模型,即可让键值缓存压缩至原体积的一小部 分,同时输出结果完全一致。如果这一效果能在实际生产环境中成立,将一夜之间改变长上下文推理的成本格局。 此外,Turb ...
英伟达早不靠GPU躺赢!黄仁勋终极预判:10亿程序员时代将至,AI智能彻底廉价
AI前线· 2026-03-25 08:34
作者 | 允毅 2026 年 GTC 大会刚刚落幕,黄仁勋坐下来,接受了一场长达两个半小时的深度访谈。 访谈中,黄仁勋以真诚分享的态度与极强的前瞻性,拆解了他如何看待产业拐点、如何做出判断。 二十年前,黄仁勋顶着利润下滑甚至生死存亡的风险,坚持把 CUDA 生态押上 GeForce,推动公司从一家图形芯片厂商转向计算平台公司。今天回 看,这几乎是 NVIDIA 历史上最关键的一次转向。如今,他认为 AI 的核心竞争,正在从单颗芯片转向"AI 工厂",而这将决定 NVIDIA 能否走向下一个 十万亿美元市值。 黄仁勋先就"扩展定律"给出了一个精彩判断:扩展定律远没有到尽头,将同时沿着预训练、后训练、测试,以及智能体系统四条路径继续推进。真正的 增长,正在转向推理、强化学习、智能体协作。而未来,大量数据将来自 AI 自身消化产生的合成数据,这会成为 AI 迭代的核心燃料。 未来决定智能上限的将是计算能力。 他认为在当下这个阶段,AI 能力的提升,已经无法靠单台计算机、甚至单颗 GPU 的升级来解决。模型性能的跃迁,越来越依赖系统级工程能力,最终 把整个系统推向极限。NVIDIA 现在做的,也不再只是芯片,而是把整 ...