Workflow
提示词工程
icon
Search documents
Karpathy:我不是要造新词,是「上下文工程」对 Agent 来说太重要了
Founder Park· 2025-07-04 13:10
Core Viewpoint - The concept of "Context Engineering" has gained traction in the AI industry, emphasizing that the effectiveness of AI applications relies more on the quality of context provided than on the prompts used to query the AI [1][3]. Group 1: Definition and Importance of Context Engineering - Context Engineering is defined as the discipline of designing and constructing dynamic systems that provide appropriate information and tools to large language models (LLMs) at the right time and in the right format [19]. - The quality of context provided to an AI agent is crucial for its effectiveness, surpassing the complexity of the code or framework used [24]. - A well-constructed context can significantly enhance the performance of AI agents, as demonstrated by examples where rich context leads to more relevant and useful responses [25]. Group 2: Components of Context Engineering - Context Engineering encompasses various elements, including prompt engineering, current state or dialogue history, long-term memory, and retrieval-augmented generation (RAG) [15][11]. - The distinction between prompts, prompt engineering, and context engineering is clarified, with prompts being the immediate instructions given to the AI, while context engineering involves a broader system that dynamically generates context based on task requirements [15][19]. Group 3: Strategies for Implementing Context Engineering - Four common strategies for implementing Context Engineering are identified: writing context, selecting context, compressing context, and isolating context [26]. - Writing context involves saving information outside the context window to assist the agent in completing tasks, such as maintaining a calendar or email history [28][29]. - Selecting context refers to pulling necessary information into the context window to aid the agent, which can include filtering relevant memories or examples [36][38]. - Compressing context focuses on retaining only the essential tokens needed for task execution, often through summarization techniques [43][44]. - Isolating context involves distributing context across multiple agents or using environments to manage context effectively, enhancing task focus and reducing token consumption [47][50].
登上热搜!Prompt不再是AI重点,新热点是Context Engineering
机器之心· 2025-07-03 08:01
机器之心报道 编辑:+0 最近 「 上下文工程 」 有多火?Andrej Karpathy 为其打 Call,Phil Schmid 介绍上下文工程的文章成为 Hacker News 榜首,还登上 了知乎热搜榜。 之前我们介绍了 上下文工程的基本概念 ,今天我们来聊聊实操。 为什么关注「上下文工程」 我们很容易将 LLM 拟人化——把它们当作能够「思考」、「理解」或「感到困惑」的超级助手。从工程学的角度来看,这是一个根本性 的错误。LLM 并不具备信念或意图,它是一个智能的文本生成器。 更准确的看法是:LLM 是一个 通用的、不确定的 函数。这个函数的工作方式是:你给它一段 文本(上下文) ,它会生成一段新的 文 本(输出) 。 通用 : 意味着它能处理各种任务(如翻译、写代码),无需为每个任务单独编程。 不确定 : 意味着同样的输入,每次可能得到稍有不同的输出。这是它的特点,不是毛病。 无状态 : 意味着它没有记忆。你必须在每次输入时,提供所有相关的背景信息,它才能「记住」对话。 这个视角至关重要,因为它明确了我们的工作重心:我们无法改变模型本身,但可以完全 控制输入 。所有优化的关键,在于如何构建最 有效 ...
论坛| 未可知 x 容诚: AI技术在基金行业的创新应用与效率提升之道
近日, 未可知人工智能研究院副院长张孜铭在容诚会计师事务所举办的金融论坛上发表主题演讲,深入探讨了AI技术在基金行业的 创新应用与效率提升之道。 作为《DeepSeek使用指南》的作者,张孜铭从技术演进、行业实践和未来趋势三个维度,为现场观众 呈现了一场精彩纷呈的AI赋能金融盛宴。 演讲伊始,张孜铭系统梳理了AI技术的发展历程,着重分析了生成式AI与传统决策式AI的本质区别。他指出,当前以DeepSeek、 Sora为代表的生成式AI正在重塑内容生产方式,而新一代AI智能体则实现了从"回答问题"到"完成任务"的跨越式发展。 在基金行 业,这些技术已经深度渗透到投研、营销、运营等各个环节。 例如,AI文本工具可以辅助撰写专业投资报告,视频生成技术为产品 营销提供了全新可能,而智能体更是在数据处理、客户服务等方面展现出惊人的效率。 针对基金行业的具体应用,张孜铭提炼出三大提效方向:首先是信息处理的高效化,通过秘塔AI等工具可将信息搜集时间缩短80%; 其次是内容生产的自动化,利用提示词工程能快速生成营销文案和PPT;最后是业务流程的智能化,数字员工可以精准完成净值核对 等重复性工作。他特别分享了某大型基金公司的案 ...
提示词工程、RAG之后,LangChain:上下文工程开始火了!
机器之心· 2025-06-25 04:06
机器之心报道 编辑:陈萍 AI 时代,你可能听说过提示词工程、RAG、记忆等术语。但是很少有人提及 上下文工程(context engineering) 。 其实,这一术语并不新鲜,近两年很多智能体构建者一直在关注这个事情。至于重要性,下面这张图很好 地概括了上下文工程与提示词工程、RAG 等的关系。 在传统的提示工程中,开发者通常侧重于精心设计提示语,以期得到更好的答案。然而,随着应用的复杂 度不断增加,逐渐显现出单纯依赖提示已无法满足现代智能体的需求。如今,提供完整且结构化的上下文 信息比任何巧妙的提示词更为重要。 因此,上下文工程正在成为 AI 工程师可以发展的最重要技能。 什么是上下文工程? 上下文工程是指构建动态系统,以合适的格式提供准确的信息和工具,使 LLM 能够合理完成任务。 上下文工程是一个系统 。复杂的智能体可能需要从多个来源获取上下文。这些上下文可能来自应用开发 者、用户、先前的交互记录、工具调用结果或其他外部数据。将这些内容整合起来需要一个复杂的系统。 上下文工程是动态的 。许多上下文信息是动态生成的。因此,构建最终提示的逻辑也必须是动态的,而不 仅仅是一个静态模板。 上下文工程就是为 ...
PromptPilot发布: AI“嘴替”帮你优化每个指令
Cai Fu Zai Xian· 2025-06-16 10:42
Core Insights - The article discusses the launch of PromptPilot, an intelligent solution platform designed for large models, which aims to transform vague user ideas into precise AI instructions, ensuring high-quality output from models [1][2]. Group 1: Product Features - PromptPilot automates the entire lifecycle of prompt generation, debugging, optimization, and iteration, freeing users from tedious tasks [3]. - The platform acts as a "demand translator," helping users clarify their needs through interactive guidance [3]. - It simplifies the process of defining ideal answers by allowing users to select from diverse generated responses, facilitating quick understanding of user intent [3][4]. - PromptPilot incorporates a closed-loop optimization system that turns "Bad Cases" into data assets for continuous improvement [3][4]. Group 2: Advanced Capabilities - The platform simulates human-like reflection and error summarization, enabling automatic iterative optimization to find the "golden question" for stable results [4]. - It supports multi-turn dialogue optimization, allowing for real-time feedback and enhancement in complex conversational scenarios [5]. - PromptPilot can optimize prompts for multi-modal scenarios, breaking down tasks into multiple steps and searching for optimal solutions [5]. - It enhances function call scenarios by optimizing both the triggering instructions and the descriptions of tools needed during task execution [5]. Group 3: User Accessibility - Users can easily integrate PromptPilot through an SDK, enabling automatic monitoring of "Bad Cases" and initiating a new round of prompt optimization [6]. - The platform standardizes the prompt engineering process, making it accessible for businesses and developers to focus on innovation in AI applications [6][7].
多智能体在「燃烧」Token!Anthropic公开发现的一切
机器之心· 2025-06-14 04:12
机器之心报道 机器之心编辑部 研究多智能体必读指南。 「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。对于任何构建多智能体系统的人来说,这是一本必读的指南。」刚 刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。 最近一段时间,关于智能体的研究层出不穷。但这也为广大研究者带来一些困惑,比如什么任务需要多智能体?多个 AI 智能体如何协作?怎么解决上下文和记忆 问题…… 面对这些问题,你不妨读读 Anthropic 的这篇文章,或许能找到答案。 文章地址:https://www.anthropic.com/engineering/built-multi-agent-research-system 多智能体系统的优势 有些研究涉及开放式问题,这类问题往往难以预先确定所需的步骤。对于复杂问题的探索,人类无法硬性规定固定路径,因为这一过程本质上是动态且具有路径 依赖性的。当人们开展研究时,通常会根据发现持续调整方法,沿着调查过程中浮现的线索不断推进。 这种不可预测性使得 AI 智能体特别适合执行研究类任务。研究工作要求具备灵活性 ...
高管培训 | 民营企业家AI实战营①:如何用AI提效办公?
近日,未可知人工智能研究院成功举办了民营企业家AI战略工作坊,吸引了众多民营企业家的积极参与。本次工作坊聚焦于生成式AI与提示词 工程的基本原理、AI提示词实用技巧与工作应用,以及AI办公工具协同提升组织效能,旨在帮助民营企业家更好地理解和应用AI技术,提升企 业竞争力。 一、深度解析生成式AI与提示词工程 工作坊 第一天上午,未可知人工智能研究院副院长张孜铭先生为企业家们带来了精彩的分享。张副院长首先深入解析了生成式AI与决策式AI的 区别,指出生成式AI的核心在于生成新的内容,如AI绘画、生成对话等,而决策式AI则更关注如何做出满意决策,如人脸识别、风险管理等。 他还回顾了生成式AI的发展脉络,从早期的萌芽阶段到如今的快速发展,强调了技术进步对AI应用的推动作用。 在AI提示词技巧方面,张副院长详细介绍了提示词工程的重要性,并分享了多种实用技巧。他指出,提示词(Prompt)是为AI模型提供的输 入,通过设计和调整输入,可以有效改善模型性能、控制生成结果。他介绍了经典提示词框架如CO-STAR、TCREI、CRISPE等,并通过实际 案例展示了如何运用这些框架来优化AI生成内容。他还分享了如何通过符号划重 ...
DeepSeek与ChatGPT:免费与付费背后的选择逻辑
Sou Hu Cai Jing· 2025-06-04 06:29
Core Insights - The emergence of DeepSeek, a domestic open-source AI model, has sparked discussions due to its free advantages, yet many still prefer to pay for ChatGPT, raising questions about user preferences and the quality of AI outputs [1][60]. - The output quality of AI tools is significantly influenced by user interaction, with 70% of the output quality depending on how users design their prompts [4][25]. Technical Differences - DeepSeek utilizes a mixed expert model with a training cost of $5.5 million, making it a cost-effective alternative compared to ChatGPT, which has training costs in the hundreds of millions [2]. - In the Chatbot Arena test, DeepSeek ranked third, demonstrating competitive performance, particularly excelling in mathematical reasoning with a 97.3% accuracy rate in the MATH-500 test [2]. Performance in Specific Scenarios - DeepSeek has shown superior performance in detailed analyses and creative writing tasks, providing comprehensive insights and deep thinking capabilities [3][17]. - The model's reasoning process is more transparent but requires structured prompts for optimal use, indicating that user guidance is crucial for maximizing its potential [7][12]. Cost and Efficiency - DeepSeek's pricing is 30% lower than ChatGPT, with a processing efficiency that is 20% higher and energy consumption reduced by 25% [8][9]. - For enterprises, private deployment of DeepSeek can be cost-effective in the long run, with a one-time server investment of around $200,000, avoiding ongoing API fees [9][10]. Deployment Flexibility - DeepSeek offers flexibility in deployment, allowing individual developers to run the 7B model on standard hardware, while enterprise setups can support high concurrency [11][10]. - The model's ability to run on lightweight devices significantly lowers the barrier for AI application [11]. Advanced Prompting Techniques - Mastery of advanced prompting techniques, such as "prompt chaining" and "reverse thinking," can significantly enhance the effectiveness of DeepSeek [13][14]. - The model's performance can be optimized by using multi-role prompts, allowing it to balance professionalism and readability [15][16]. Language Processing Capabilities - DeepSeek demonstrates a 92.7% accuracy rate in Chinese semantic understanding, surpassing ChatGPT's 89.3%, and supports classical literature analysis and dialect recognition [17]. Industry Applications - In finance, DeepSeek has improved investment decision efficiency by 40% for a securities company [18]. - In the medical field, it has achieved an 85% accuracy rate in disease diagnosis, nearing the level of professional doctors [19]. - For programming assistance, DeepSeek's error rate is 23% lower than GPT-4.5, with a 40% faster response time [20]. Complementary Nature of AI Tools - DeepSeek and ChatGPT are not mutually exclusive but serve as complementary tools, each suited for different tasks based on user needs [21][22]. - DeepSeek is preferable for deep reasoning, specialized knowledge, and data privacy, while ChatGPT excels in multi-modal interaction and creative content generation [24][22]. Importance of Prompting Skills - The ability to design effective prompts is becoming a core competency in the AI era, influencing the quality of AI outputs [54][55]. - The book "DeepSeek Application Advanced Tutorial" aims to enhance users' prompting skills and unlock the model's full potential [61].
第一批追赶AI的人,正在被AI甩开
Hu Xiu· 2025-05-29 00:14
近两年,随着AI的火热发展,"提示词(prompt)"这个词也被普通人熟知。 在AI短视频博主那里,这是AI时代的普通人必须要掌握的一项技能,"谁不会用提示词,谁就会被AI淘汰!"在焦虑的打工人那里,提示词是用AI来帮忙 完成工作的手段,需要整天琢磨对AI说什么才能得到更好的效果。这种焦虑也催生了众多"提示词工程"的知识付费课程,在AI还没真正落地之前,就先让 一帮嗅觉敏锐的人大赚一笔。 提示词也曾是许多没有AI和相关技术背景的人,想追赶AI风口的一条捷径。作为一种新职业,"提示词工程师"曾被许多人追捧,门槛低、上手快、薪资 高,成为转行AI的首选。"2023年的时候阿猫阿狗都能进来,挺好混的,挺水的。"从业者杨佩骏说。那时在国外有的提示词工程师甚至能拿到25-33万美 元年薪。 但现在,随着大模型能力的快速提升,提示词工程师越来越没有存在感,杨佩骏发现,辛辛苦苦优化了很长时间的提示词,模型一升级,就相当于白干 了。模型理解自然语言、推理与思考能力越来越强,传统意义上只会写提示词的提示词工程师已经失去竞争力,AI、模型公司们也不愿意招了。 "现在大家稍微有一点职业追求,都不愿意承认自己是PE(prompt e ...
2年就过气!ChatGPT催生的百万年薪岗位,大厂不愿意招了
量子位· 2025-05-04 04:08
提示词工程师 ,不用写代码、不限专业、不要求学历,只需研究如何和AI聊天,就能在2023年拿到25-33万美元年薪。 但如今,它已经沦为企业最不愿意扩增的岗位之一。 微软一项涉及31000名员工的调查显示,提示词工程师已经成为公司未来12-18个月内 倒数第二 不想新增的岗位。 同时在招聘平台(Indeed)上,提示词工程师的检索次数也在经历了过山车式变化。 要知道,当年这一新岗位可是得到了OpenAI奥特曼和AI大神卡帕西的共同认可。 明敏 发自 凹非寺 量子位 | 公众号 QbitAI 大模型元年最热门的AI岗位,现在已经过气了—— 2年时间过去,懂提示词工程确实依旧是项技能,但衍生出的岗位却已经不那么刚需了。 搞AI课程培训的高管表示: 无论你是财务、HR还是法务, 懂提示词工程已经是一种基本的职业技能 ,而不是需要再专门招一个岗位。 提示工程已成基本必备技能 梳理现状,提示词工程领域现在呈现出三个新趋势: 1、AI可以自动化提示词工程 2、普通人上手门槛变低 3、企业需要更加复合型人才 最初,提示词工程师的工作内容被定义为"用合适的描述让AI发挥出最大的潜力"。 最早一批开设该岗位的AI公司包括Ant ...