译者说明

本文翻译自 OpenAI 官方文档中的提示工程指南。翻译力求忠实原文,术语保留英文原文以便对照。

原文信息

  • 来源:OpenAI Platform Documentation
  • 原标题:Prompt Engineering
  • 翻译日期:2026-03-06

正文

编写清晰的指令

模型无法读取你的想法。如果输出过长,要求简洁回答;如果输出过于简单,要求专家级写作。如果你不喜欢某种格式,展示你期望的格式。模型猜测你意图的次数越少,你获得满意结果的可能性就越大。

策略:

  • 在查询中包含细节以获得更相关的答案
  • 要求模型扮演特定角色
  • 使用分隔符清晰标示输入的不同部分
  • 指定完成任务所需的步骤
  • 提供示例
  • 指定期望的输出长度

提供参考文本

语言模型可能会自信地编造虚假答案,尤其是在被问及深奥话题或被要求提供引用和网址时。提供参考文本可以帮助模型以更少的虚构来回答。

策略:

  • 指示模型使用参考文本来回答
  • 指示模型引用参考文本中的内容来回答

将复杂任务拆分为子任务

正如软件工程中将复杂系统分解为模块化组件一样,提交给语言模型的任务也是如此。复杂任务的错误率往往高于简单任务。

策略:

  • 使用意图分类来识别用户查询中最相关的指令
  • 对需要很长对话的应用,总结或过滤之前的对话
  • 分段总结长文档

给模型时间「思考」

如果被要求计算 17 × 28,你可能不会立刻知道答案,但仍然可以通过时间推算出来。模型也是如此——在试图立即回答时会犯更多推理错误,而不是花时间推算答案。

策略:

  • 指示模型在给出答案之前先制定自己的解决方案
  • 使用内心独白或一系列查询来隐藏模型的推理过程

译注

  1. 原文中 “hallucination” 译为「虚构」或「幻觉」,指模型生成看似合理但实际不正确的内容。
  2. “Few-shot prompting” 译为「少样本提示」,指在提示中提供少量示例来引导模型输出。