《大语言模型提示词工程原理及最佳实践-郑昊pdf.pdf》由会员分享,可在线阅读,更多相关《大语言模型提示词工程原理及最佳实践-郑昊pdf.pdf(41页珍藏版)》请在三个皮匠报告上搜索。
1、 2023,Amazon Web Services,Inc.or its affiliates.All rights reserved.大语言模型提示词工程原理大语言模型提示词工程原理及最佳实践及最佳实践郑昊 Zheng HaoAI/ML Specialist SAPrompt Engineering(PE)Basics One/Few ShotZero ShotSome simple examplesPrompt Engineering(PE)Agenda-基本基本原理原理-通过提示词文本提升通过提示词文本提升LLM任务表现任务表现-通过思维结构进一步挖掘通过思维结构进一步挖掘LLM潜力潜力
2、-Claude PE 最佳实践最佳实践Prompt Engineering(PE)Basics Instruction 指令指令:您想让模型执行的特定任务或指令(做什么,也可以放题干)Context 上下文上下文:涉及到的外部信息或附加上下文,可以引导模型产生更好的响应(背景知识)Input 输入数据输入数据:我们有兴趣为其找到响应的输入或问题(一般来说是题干、或选项)Output Indicator 输出指示符输出指示符:指示输出的类型或格式(以何种形式做)*不是所有组件都需要出现在Prompt中,取决于任务定义及需要Elements of a PromptWhy Prompts can w
3、ork?PretrainSFTInputs:“once upon a time,.”“the AI model is powerful and.”“1+1=.”Inputs:“Write me a story happened long time ago.”“Tell me how AI model can empower our life.”“what is the result of 1+1?”PPO/DPO/RL为什么有效为什么有效?可简单理解为可简单理解为,训练&对齐后,LLM记住了语料中的Query跟Response的共现共现;同时输入的Query在训练的语料中有出现出现;Promp
4、ts&labelsIn-context Learning*https:/arxiv.org/abs/2301.00234*https:/arxiv.org/abs/2111.02080贝叶斯视角贝叶斯视角“文文-文文”匹配匹配 分布匹配分布匹配如果指令复杂&抽象,LLM is powerful enough,不需要额外的训练,能够只通过若干带有input-output样例的prompt来学习到如何进行downstream task。有技巧的Prompt相当于在帮助LLM进行更丰富的回忆及联想,并帮助In-context LearningTunable Hyper-params for Caus
5、al GenerationTop-K:每个时间步,保留Top K个字,re-scale后重采样。增加了衍生Sequence的数量和可能性,但不好控制数量(容易采到long-tail)。Top-P(Nucleus Sampling):每个时间步,保留累积概率在P以内的字数,re-scale后重采样。-K&P联合调控联合调控,提升生成效果提升生成效果(提升多样性并减少预测分布平缓时采样到长尾词的概率提升多样性并减少预测分布平缓时采样到长尾词的概率)Temperature:控制文本生成随机性(re-scale时拉大gap)。值越低,生成的文本就越接近于模型已有的知识和样本,可能会更加保守和可预测。当
6、Temperature值较高时,生成的文本就会更加随机化、多样化、新颖和出人意料。因为模型更容易从多个可能的单词和短语中进行选择和组合,从而创造出更加多样化的文本。-对于对于基于事实的问答基于事实的问答,可以使用较低的温度可以使用较低的温度,以鼓励更具事实性和简洁的回答以鼓励更具事实性和简洁的回答;-对于诗歌生成或其他对于诗歌生成或其他创意任务创意任务,增加温度可能会更适合增加温度可能会更适合。-对于LLM的逐字生成,用怎样的策略选择?Greedy-Beam search-Accumulated prob.小结:训练内容+Hyper params,构成了LLM的personality通过提示词