提示工程

Search documents
上下文就是一切!行业热议话题:提示工程是否应该改名
歸藏的AI工具箱· 2025-06-26 11:40
大家好,我是歸藏(guizang),今天来讨论一下最近圈子很火的上下文工程概念。 这几天 AI 圈子有个非常有必要也非常热的讨论就是提示工程是不是应该被称为"上下文工程"更加适合。 最早由 Shopify CEO Tobi Lutke 在推特说,他觉得相比提示工程更喜欢"上下文工程"这个术语。 因为这个词可以更加准确的描述岗位所需要的核心技能: 需要为 LLM 提供完成任务所需要的所有上下文。 之后 Andrej Karpathy 也发表了意见,"提示"通常让人联想到日常使用的 LLM 聊天机器人中的简短任务描 述。 但是在每一个工业级 LLM 应用中,上下文工程是精心艺术和科学地填充上下文窗口, 使其包含下一步所需 恰到好处的信息 。 因为做到这一步需要的不只是提示词这一个东西,还需要任务描述和解释、少量样本、RAG(检索增强生 成)、相关的(可能是多模态)数据、工具、状态和历史、以及压缩等信息。 如果信息太少或形式不对,LLM 可能无法获得最佳性能所需的正确上下文。 但如果信息过多或不相关,LLM 的成本可能会上升,性能也可能下降。 所以上下文工程师需要提供恰到好处的信息,而且这需要对 LLM"心理"有一 ...
速递| 下一代十亿级AI创意藏于系统提示词,Superblocks完成A轮融资2300万美元
Z Potentials· 2025-06-08 03:04
图片来源: Superblocks 企业级低代码开发平台 Superblocks 的 CEO 布拉德·梅内塞斯认为,下一批价值十亿美元的创业点子 几乎就藏在眼前:现有 AI 独角兽企业所使用的系统提示词中。 Superblocks 上周宣布完成 2300 万美元 A 轮扩展融资, 使其 A 轮总融资额达到 6000 万美元 ,该公 司的 vibe coding 工具主要面向企业非开发人员。 系统提示词是 AI 初创公司用于指导 OpenAI 或 Anthropic 等公司的基础模型如何生成其应用级 AI 产 品的长篇提示词——通常超过 5000-6000 字。在 Menezes 看来,这些提示词堪称提示工程的 " 大师课 " 。 每家公司对同一个 基础 模型使用的系统提示词都完全不同, " 他说 。 " 他们试图让模型完全按照特 定领域、特定任务的要求来运作。 系统提示词并非完全保密。客户可以要求许多 AI 工具分享它们的提示词。但这些提示词并不总是公 开可用。 因此,作为其初创公司新推出的企业级编程 AI 助手 Clark 产品发布的一部分, Superblocks 主动提出 分享 19 个系统提示词文件 ...
5 万行代码 Vibe Coding 实践复盘:最佳实践、关键技术,Bitter Lesson
海外独角兽· 2025-06-05 11:00
Core Viewpoint - The article discusses the transformative potential of AI coding agents, highlighting their ability to generate code and automate programming tasks, thus enabling even those without extensive coding experience to become proficient developers [3][6]. Group 1: My Vibe Coding Journey - Vibe Coding refers to the practice of using coding agents to generate nearly 100% of the code, with tools like Cursor, Cline, and GitHub Copilot being popular choices [7]. - The author completed approximately 50,000 lines of code over three months, successfully developing three different products, demonstrating the effectiveness of AI in coding [8][9]. - The experience revealed that a lack of prior knowledge in certain programming languages can be advantageous when relying on AI, as it necessitates full dependence on the coding agent [8]. Group 2: Key Technologies of Coding Agents - Key coding agents include Cursor, Cline, GitHub Copilot, and Windsurf, with a strong emphasis on using the agent mode for optimal performance [13][14]. - The effectiveness of coding agents relies on three critical components: a powerful AI model, sufficient context, and an efficient toolchain [15][18]. - The article emphasizes the importance of providing clear and comprehensive context to the AI for successful task execution [11][12]. Group 3: Comparison of Coding Agents - Cursor is highlighted as the current leader in the coding agent space, particularly when using the Claude 3.7 Max model, capable of generating 100% of the code for large projects [44]. - Cline is noted for its open-source nature and superior support for the Model Context Protocol (MCP), but it lacks semantic search capabilities, which limits its effectiveness in handling large codebases [45]. - GitHub Copilot is seen as lagging behind in context management and MCP support, but it has the potential to catch up due to Microsoft's strong development capabilities [46]. Group 4: The Bitter Lesson in Agent Development - The article references "The Bitter Lesson," which suggests that embedding too much human experience into AI systems can limit their potential, advocating for a design that allows AI capabilities to dominate [47][48]. - The author’s experience indicates that reducing human input in favor of AI-driven processes can significantly enhance product performance, achieving a test coverage rate of over 99% [48].
精准调控大模型生成与推理!浙大&腾讯新方法尝试为其注入“行为定向剂”
量子位· 2025-06-05 10:28
STA团队 投稿 量子位 | 公众号 QbitAI 如果你面前有两个AI助手:一个能力超强却总爱"离经叛道",另一个规规矩矩却经常"答非所问",你会怎么选? 这正是当前大模型控制面临的两难困境:要么模型聪明却难以约束,要么守规矩却缺乏实用性。但我们真正追求的,并不是在"聪明但难 控"与"听话但愚钝"之间二选一,而是打造既强又好的AI助手——既具备强大的智能能力,又能始终按照人类意图行事。 ACL 2025中选论文中,来自浙江大学与腾讯的联合团队提出了新思路: Steering Target Atoms (STA),尝试为大模型注入"行为定向 剂",助力对模型行为的精准调控,为构建既聪明又听话的AI打下基础。 该方法通过"原子级"粒度对大模型进行行为编辑干预,实现了更鲁棒、更安全的生成控制。 在Gemma和LLaMA系列模型上的实验表明,STA方法能够有效抑制越狱攻击带来的违规输出,同时不削弱模型在正常问题回答中的高质量智 能表现。 大模型行为控制的挑战与突破 在参数训练完成后,很多应用场景会需要在推理阶段调整模型的特定行为,例如让模型拒绝用户的恶意请求。 然而,模型的"安全防御"能力往往和它的"通用智能"能力 ...
“由 AI 生成的代码,从诞生那一刻起就是「遗留代码」!”
AI科技大本营· 2025-05-12 10:25
【编者按】如今生成式 AI 逐渐融入软件开发流程,越来越多 AI 生成的代码出现在实际工程中——但你有没有想过,这些由 AI 写出来的代码,从一开始 就可能被视为"遗留代码"?本文作者从工程经验出发,结合 AI 的生成机制,提出一个颇具启发性的观点: AI 生成的代码缺乏上下文记忆和维护连续性, 因此一 诞生就处于"他人旧作"的状态 。 这 不仅是对当前 AI 编码能力的冷静观察,也为我们理解未来软件开发形态提供了一种新视角。 原文链接: https://text-incubation.com/AI+code+is+legacy+code+from+day+one 翻译 | 郑丽媛 出品 | CSDN(ID:CSDNnews) 在软件开发中,代码的"可改进性"往往取 决于其所处的生命周期阶段。通常可以分为以下几类情况: 总的来看, 代码的演进速度,通常取决于离它的编写时间有多近、维护者是不是原作者。 其实 , 这种状态是合理的:对于一个运行稳定、经过验证的软件系统而言,贸然进行"改进"往往带来额外风险,尤其是当你对系统的整体脉络不甚了 解时,原作者通常才最清楚其潜在逻辑和 开发 背景。 AI 生成的代码 , ...
AI提示词终极指南:掌握这些技巧,让输出效果翻倍
3 6 Ke· 2025-05-11 02:04
神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。 编者按:AI输出陷入"无效对话"困境?其实是你不懂提问的艺术。从指令颗粒度拆解到思维链编织,本文揭示精准提问如何唤醒AI潜能——与其焦虑技术颠 覆,不如掌握这套数字化时代的元能力,让语言真正成为撬动生产力的支点。文章来自编译。 在跟聊天型AI打了一整年的交道之后,我发现普通回答和精准答案的区别,往往就藏在提问方式里。AI就像一面镜子——你的提示质量,直接决定了它的 输出水准。 AI能听懂大白话,但如果你自己都不清楚想要什么,它的作用就像开会时永远只会说"没进展"的那个同事。 我会将自己总结的提示词优化法则在这份指南中和盘托出,帮助你在每次对话时榨取出最大价值。 心急的朋友可以直接跳转至实操技巧部分,获取即学即用的干货。 原则:更好AI提示词的建构快 成为AI专家才能用好提示词?完全不需要。只要学会调整输入方式,就能显著提升输出质量。 给追求极简主义的朋友们划重点,提示词主要分两种类型: 如果你比较有好奇心,还可以解锁这些高阶技巧: 零样本提示(Zero-shot prompting) "将这句话翻译成西班牙语 ...
两年前最火的AI职位,已经凉了
Hua Er Jie Jian Wen· 2025-04-28 11:36
两年前,AI提示工程师还是科技行业最受欢迎的职业之一,年薪高达20万美元,被称作企业里的"AI低 语者"。他们的工作是精心设计输入提示,以从大型语言模型中获得最佳回答。但随着AI技术发展迅 速,以及企业对这项技术的理解越来越深入,这个职位如今已经基本消亡。 微软AI at Work首席营销官Jared Spataro表示: 两年前,每个人都说,"哦,我认为提示工程师将成为热门工作。"结果完全不是这样。 在微软最近进行的一项调查中,有31,000名来自31个国家的员工被问到他们的公司在未来12到18个月内 计划增加哪些新的工作岗位。结果显示,提示工程这一岗位排在了倒数第二位,而像AI培训师、AI数 据专家和AI安全专家等岗位则名列前茅。 AI技术的迅猛发展是提示工程师衰落的主要原因。现今的AI模型在理解用户意图方面表现得更为出 色,且能在不明确时主动提出后续问题。 Spataro解释说,大型语言模型已经演变得更具迭代性、对话性和上下文感知能力。微软的AI驱动研究 代理会提出后续问题,告诉你它何时不理解事物,并就所提供的信息寻求反馈。简而言之,"你不必拥 有完美的提示"。 职业平台Indeed的AI副总裁Hann ...
我悟了如何与AI说话!谷歌 69 页官方提示词秘籍全解析,中文版免费下载
AI科技大本营· 2025-04-22 10:26
(You don't need to be a data scientist or a machine learning engineer – everyone can write a prompt.) 作者 | 王启隆 出品 | CSDN(ID:CSDNnews) 最近,Google 官方发布了一份长达 69 页的 【Prompt Engineering 白皮书】 ,可以说是目前最系统、最权威的"AI 沟通指南"了。我们也是第一时 间翻译好了这本书,准备 【免费】 送给大家! 怎么拿?很简单, 看完这篇文章,参与文末的小活动就行! 现在咱们聊聊,为啥这份白皮书突然就刷屏了?为啥说它是"必学秘籍"? 你不必是数据科学家或机器学习工程师——人人都可以编写提示词。 你苦口婆心解释半天,它抓着一个无关紧要的词就开始自由发挥…… 你想要个 A,它自信满满地给你个 B,还附赠一套又臭又长、看似完美的错误逻辑…… 同一个问题,昨天它懂你,今天它就装傻,效果全看"缘分"…… Google 这份白皮书,不是某个博主的心得体会,不是零散的技巧合集,而是 Google 官方基于对大语言模型(LLM)的深刻理解,系统性梳理出来的 ...
一个万能文生图提示框架,人人都能成为专业AI设计师
Hu Xiu· 2025-04-07 07:45
最近各家文生图 AI 都在不断迭代。 但小白、专业创作者,在文生图时仍会觉得脑中虽有万千想法(maybe 也可能是一团浆糊 ),却很难确定用哪些"提示词"激发模型能力上限,实现更高 效、专业的 AI 设计。 最近一泽研究了一套万能文生图提示框架,我希望它能对你的创作方法有所启发,提供一座创意与 AI 生成能力的桥梁,真正"用想法驱动设计"。 下面是用该提示框架直出的效果图,覆盖"游戏、产品、影视、家装、UI、艺术、摄影"等全设计领域: 先自行总结一下优势(朋友们内测反馈很一致): 1. 用上这套方案后,哪怕是完全不懂设计、不会 AI 的纯小白,也能完全解锁专业级 AI 创作能力(无需学习,就让每个人都会文生图"嘴炮魔法")。 2. 对于专业 AI 创作者、设计师,能无脑让 AI 根据意图,自动编写与优化提示词,大幅提升文生图创作的效率与质量(还能让所有模型外挂精准的多模 态提示/垫图能力)。 3. 缓解文生图"黑箱",提升文生图提示词的可解释性,方便手动微调提示词,也能边用边学,快速提升文生图提示工程能力。 4. 自动同时生成中、英文双版提示词,不再手动翻译,避免提示词失真。 膨胀一点说,在实测中,用上这套框 ...