译者说明
本文翻译自 OpenAI 官方文档中的提示工程指南。翻译力求忠实原文,术语保留英文原文以便对照。
原文信息
- 来源:OpenAI Platform Documentation
- 原标题:Prompt Engineering
- 翻译日期:2026-03-06
正文
编写清晰的指令
模型无法读取你的想法。如果输出过长,要求简洁回答;如果输出过于简单,要求专家级写作。如果你不喜欢某种格式,展示你期望的格式。模型猜测你意图的次数越少,你获得满意结果的可能性就越大。
策略:
- 在查询中包含细节以获得更相关的答案
- 要求模型扮演特定角色
- 使用分隔符清晰标示输入的不同部分
- 指定完成任务所需的步骤
- 提供示例
- 指定期望的输出长度
提供参考文本
语言模型可能会自信地编造虚假答案,尤其是在被问及深奥话题或被要求提供引用和网址时。提供参考文本可以帮助模型以更少的虚构来回答。
策略:
- 指示模型使用参考文本来回答
- 指示模型引用参考文本中的内容来回答
将复杂任务拆分为子任务
正如软件工程中将复杂系统分解为模块化组件一样,提交给语言模型的任务也是如此。复杂任务的错误率往往高于简单任务。
策略:
- 使用意图分类来识别用户查询中最相关的指令
- 对需要很长对话的应用,总结或过滤之前的对话
- 分段总结长文档
给模型时间「思考」
如果被要求计算 17 × 28,你可能不会立刻知道答案,但仍然可以通过时间推算出来。模型也是如此——在试图立即回答时会犯更多推理错误,而不是花时间推算答案。
策略:
- 指示模型在给出答案之前先制定自己的解决方案
- 使用内心独白或一系列查询来隐藏模型的推理过程
译注
- 原文中 “hallucination” 译为「虚构」或「幻觉」,指模型生成看似合理但实际不正确的内容。
- “Few-shot prompting” 译为「少样本提示」,指在提示中提供少量示例来引导模型输出。