问题定义
大语言模型(LLM)的输出质量高度依赖输入提示词(Prompt)的设计。提示工程(Prompt Engineering)是一套系统性方法,帮助用户通过结构化的指令获得更准确、更有用的 AI 输出。
适用人群
- 刚开始使用 ChatGPT、Claude 等 AI 工具的用户
- 希望提升 AI 输出质量的内容创作者
- 需要将 AI 融入工作流的研究者
输入准备
在编写提示词之前,明确以下三个要素:
- 目标:你希望 AI 完成什么任务?
- 上下文:AI 需要知道哪些背景信息?
- 格式:你期望的输出形式是什么?
步骤一:基础结构
一个有效的提示词通常包含:
角色:你是一位 [专业领域] 专家。
任务:请 [具体动作] [具体对象]。
约束:输出需要 [格式要求],不超过 [长度限制]。
步骤二:迭代优化
首次输出往往不够理想。通过以下方式迭代:
- 追加细节约束
- 提供正面或反面示例
- 要求 AI 先拆解任务再执行
步骤三:高级技巧
链式思考(Chain of Thought)
引导 AI 逐步推理,而非直接给出答案:
请一步步分析这个问题,先列出关键因素,然后逐一评估,最后给出结论。
少样本学习(Few-shot Learning)
通过 2-3 个示例建立模式:
将以下标题转为 slug 格式:
- "如何写好提示词" → ru-he-xie-hao-ti-shi-ci
- "AI 工具推荐" → ai-gong-ju-tui-jian
- "深度学习入门" → ?
常见问题
Q:提示词越长越好吗? 不一定。关键是信息密度,而非长度。冗余信息反而会分散模型注意力。
Q:不同模型需要不同的提示词吗? 基本原则相通,但不同模型对格式偏好略有差异。建议针对常用模型积累经验。
延伸阅读
- OpenAI 官方 Prompt Engineering 指南
- Anthropic Claude 使用最佳实践