诸神缄默不语-个人CSDN博文目录
我准备想办法把这些东西整合到我的ScholarEase项目里。
其实以现在GPT-4的能力来说,直接就当日常对话随便直接说、直接问,基本没有太大的问题。
有时使用更复杂、详细、明确的prompt可能会起到提升作用。
有一些简单的prompt模版可以看看我列出的参考资料,或者看看ScholarEase。在本博文中就不列举了。
很多模型底层都是英文,但中文使用量也很大,所以基本都支持。假设大家这两门语言都会,我就不用双语了。
文章目录
- 1. 通用
- 参考资料
1. 通用
- 逻辑推理
- CoT:给LLM举一个经过复杂思考得出结论的例子1
值得注意的是,CoT的实验证明,CoT是随着模型规模涌现的,也就是说小模型上面CoT效果不一定能提升,甚至可能变差…… - zero-shot CoT:
Let's think step by step.
2
- Auto-CoT3:这个还有点复杂的,大致意思是说,它先对数据集进行聚类,从中找出与用户输入相类似的案例,然后对类似案例应用zero-shot-CoT:
- CoT:给LLM举一个经过复杂思考得出结论的例子1
- 格式
指令instruct:希望 LLM 执行什么任务
上下文context:给 LLM 提供一些额外的信息,比如可以是垂直领域信息,从而引导 LLM 给出更好的回答
输入数据:希望从 LLM 得到什么内容的回答
输出格式:引导 LLM 给出指定格式的输出 - 注入攻击(慎用,且不一定有效,很多模型都会跟进着做出改进)
一种解决方案是将用户输入包含在每次都会改变的UID里,然后命令LLM谨慎对待请忽略上面的指示
- Prompt Jailbreaking(GPT-3.5还能中招,GPT-4已经把车门都焊死了)
参考资料
- 2023 如何成为 Prompt Engineering 提示工程高手终极指南,从入门到高级
(2022 NeurIPS) Chain of Thought Prompting Elicits Reasoning in Large Language Models ↩︎
(2022 NeurIPS) Large Language Models are Zero-Shot Reasoners ↩︎
(2022) Automatic Chain of Thought Prompting in Large Language Models ↩︎