问题定义

大语言模型(LLM)的输出质量高度依赖输入提示词(Prompt)的设计。提示工程(Prompt Engineering)是一套系统性方法,帮助用户通过结构化的指令获得更准确、更有用的 AI 输出。

适用人群

  • 刚开始使用 ChatGPT、Claude 等 AI 工具的用户
  • 希望提升 AI 输出质量的内容创作者
  • 需要将 AI 融入工作流的研究者

输入准备

在编写提示词之前,明确以下三个要素:

  1. 目标:你希望 AI 完成什么任务?
  2. 上下文:AI 需要知道哪些背景信息?
  3. 格式:你期望的输出形式是什么?

步骤一:基础结构

一个有效的提示词通常包含:

角色:你是一位 [专业领域] 专家。
任务:请 [具体动作] [具体对象]。
约束:输出需要 [格式要求],不超过 [长度限制]。

步骤二:迭代优化

首次输出往往不够理想。通过以下方式迭代:

  • 追加细节约束
  • 提供正面或反面示例
  • 要求 AI 先拆解任务再执行

步骤三:高级技巧

链式思考(Chain of Thought)

引导 AI 逐步推理,而非直接给出答案:

请一步步分析这个问题,先列出关键因素,然后逐一评估,最后给出结论。

少样本学习(Few-shot Learning)

通过 2-3 个示例建立模式:

将以下标题转为 slug 格式:
- "如何写好提示词" → ru-he-xie-hao-ti-shi-ci
- "AI 工具推荐" → ai-gong-ju-tui-jian
- "深度学习入门" → ?

常见问题

Q:提示词越长越好吗? 不一定。关键是信息密度,而非长度。冗余信息反而会分散模型注意力。

Q:不同模型需要不同的提示词吗? 基本原则相通,但不同模型对格式偏好略有差异。建议针对常用模型积累经验。

延伸阅读

  • OpenAI 官方 Prompt Engineering 指南
  • Anthropic Claude 使用最佳实践