一文汇总大语言模型LLM所有prompt提示词框架的论文出处
发布时间:2024年06月06日
能够让大模型推理结果变得更好的基础优化手段已经非常多了,这里梳理了常见的提示技术手段和对应的论文:
- Zero-shot(零样本提示):https://arxiv.org/abs/2109.01652
- Few-shot(少样本提示):https://arxiv.org/abs/2005.14165
- CoT(链式思考提示):https://arxiv.org/abs/2201.11903
- ToT(思维树提示):https://arxiv.org/abs/2305.10601
- GoT(Graph of Thoughts):https://arxiv.org/abs/2308.09687
- SC(自我一致性):https://arxiv.org/abs/2203.11171
- Multi Persona(多角色):https://arxiv.org/abs/2307.05300
- Least to Most(从最小到最多):https://arxiv.org/abs/2205.10625
- Step Back(后退提示):https://arxiv.org/abs/2310.06117
- ART(自动推理和工具使用):https://arxiv.org/abs/2303.09014
- ReAct:https://arxiv.org/abs/2210.03629
- Reflection(反思):https://arxiv.org/abs/2303.11366
- RAG(检索增强生成):https://arxiv.org/abs/2005.11401
以上内容在之前的分享中都详细详细提到过,有一些只需要在 Prompt 上做简单优化便可看到效果。有一些则需要进行框架设计,如对任务进行规划、分解、组合等,包括与外界环境的交互、让人参与交互,存在一定的设计成本,市面上很多 XXXGPT 也是对这些基础手段组合后的工程实践。学习这些知识的原理有助于帮助我们打开
LLM 推理黑盒,感兴趣的朋友不妨花点时间研究下。
出自:
https://mp.weixin.qq.com/s/6l1UBJ8xYhDV2ewQAQOZgw
另外,这里给大家分享2个阅读arxiv PDF 论文的新技巧:
arxiv PDF 论文原地址:https://arxiv.org/abs/2109.01652
1)将域名中的 x 更换成 5,会跳转到 HTML 版本
替换后:https://ar5iv.org/abs/2109.01652
2)将域名中的 v 更换成 w,会跳转到一个 AI Chat with
PDF 版本
替换后:https://ar5iw.org/abs/2109.01652
非常详细的ChatGPT介绍,玩法...