前言
在探索与生成式AI如ChatGPT、Microsoft Copilot等前沿工具交互的过程中,我们不可避免地会遇到一个核心问题——如何编写出既能让大模型轻松理解又能准确执行的prompt。这一挑战不仅要求用户精准把握问题的核心,提炼出简洁明了的关键词,还需考虑模型的理解能力和执行效率,避免过于复杂或模糊的表述。
为了应对这一挑战,研究人员们进行了深入的探索。在名为“Principled Instructions Are All You Need for Questioning LLaMA-1/2,GPT-3.5/4”的研究论文中,穆罕默德·本·扎耶德人工智能大学的学者们测试了26种激励策略,并发现这些策略在提升大模型回答质量上效果显著,其中一些策略甚至带来了高达45%的改善。
当然,以下是完整润色并细化后的26条优化prompt的原则,用于提升生成式AI回答的质量:
- 简洁与清晰:避免冗长和不必要的细节,确保prompt直接且明确。如:“描述人体细胞的结构。”
- 考虑受众:根据预期受众调整prompt的复杂度和深度。例如:“为从未使用过智能手机的老年人概述智能手机的工作原理。”
- 分解复杂任务:将复杂任务分解为一系列简单的步骤。如:“P1:为以下等式分配负号;P2:合并类似项;P3:简化表达式。”
- 使用肯定性指令:使用积极的指令,如“做”,避免使用否定词“不要”。
- 寻求解释:当需要深入理解时,要求模型以简单的方式解释。如:“像我是该领域的初学者一样向我解释。”
- 提供激励:通过提供奖励来鼓励模型提供更准确的答案。如:“我会给xxx美元小费以获得更好的解决方案。”
- 示例驱动:使用示例来指导模型生成期望的输出。如:“将以下句子翻译成法语:‘天空是蓝色的。’”
- 格式化提示词:使用换行符分隔指令、示例、问题等。如:“#Instruction# #Example# 展示一个具体的例子。”
- 明确角色:为模型分配明确的角色或任务。如:“你的任务是…”
- 遵守规则:明确指出模型必须遵循的规则。如:“如果你不使用简单的语言,你将受到惩罚。”
- 自然语言回答:要求模型以自然、类似人类的方式回答问题。
- 逐步思考:使用引导词,如“逐步思考”,帮助模型逐步展开思考。
- 避免偏见:在prompt中添加短语,如“确保你的回答没有偏见,不依赖刻板印象。”
- 通过提问获取细节:允许模型通过提问来获取更多细节,直到获得足够的信息。如:“请向我提问以获取更多细节。”
- 测试理解:当你想测试自己的理解时,可以要求模型教授某个主题并进行测试。如:“教我某个定理,并给出测试问题。”
- 分配角色:为大型语言模型分配特定的角色或身份。如:“作为历史学家,描述…”
- 使用分隔符:在prompt中使用分隔符来区分不同的部分。
- 重复关键词:在prompt中重复特定的单词或短语以强调其重要性。
- 结合思维链:将思维链(CoT)与少量提示结合使用,以引导模型逐步推理。
- 输出引导:在prompt的结尾部分加入期望输出的开头,以引导模型生成特定格式的回答。
- 避免冗余:确保prompt中的信息不冗余,只包含必要的细节。
- 使用限定词:在prompt中加入限定词以明确回答的范围或方向。如:“在以下选项中选择一个…”
- 引入背景信息:在prompt中适当引入与问题相关的背景信息,以帮助模型更好地理解问题。
- 指定回答格式:明确要求模型以特定的格式(如列表、步骤、总结等)回答问题。
- 尊重事实:在编写prompt时,确保尊重客观事实,避免引入主观臆断。
- 定期更新prompt:随着技术的进步和模型的更新,定期审查和更新prompt以确保其有效性。
通过遵循这些原则,您可以更有效地编写prompt,与生成式AI进行交互,并提升回答的质量和效率。
如果想学习大模型的这里也分享一份指南
😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓