什么是LLM,什么是Prompt
LLM=Large Language Mode,中文意思是大语言模型,即大家讨论的ChatGPT;
在LLM中,Prompt是指用于引导模型生成文本的输入文本,Prompt可以是一个问题、一个主题、一段描述等等,它可以帮助模型理解用户的意图并生成相应的文本.在使用LLM进行文本生成时,Prompt的选择和设计非常重要,因为它将直接影响生成的文本的质量和准确性.
Prompt Engineering(提示词工程)
ChatGPT的局限性
能做什么?(太多就不列举了)
不能做什么?
1.主动获取外部更新信息,ChatGPT的训练数据是有截止日期的,之后的信息是不会主动获取的;
2.数学计算,跟计算器的计算相比,ChatGPT是通过逻辑推理来完成数学运算的,会有出错概率;
3.执行代码,ChatGPT可以扮演服务器,但是不能执行代码。
基础的提示词工程(提问)技巧
清晰、明确、避免模糊的词语。
用###或 “””,把指令和待处理的内容分开
指定输出的格式
角色扮演
告诉GPT,你是谁
提供大量的背景信息,比如我是一个ChatGPT的初学者;
提示包含以下任意元素:
元素 | 描述 | 举例 | 提醒 |
---|---|---|---|
指令词 | 想要模型执行的特定任务或指令 | 简述,解释,翻译,总结,生成代码 … | 清晰、明确、避免模糊 |
背景 | 包含外部信息或额外的上下文信息,引导语言模型更好地响应。 | 我是一个小学生 | |
你是苏格拉底… | 扮演 | ||
输入 | 用户输入的内容或问题 | 总结时提供的文本; | |
编写SQL代码时提供的数据库/表结构信息 … | use ### or “”“ | ||
输出要求 | 指定输出的类型或格式。 | 50字,4句话;以JSON格式输出 | 可以举例 |
进阶的提示词工程(提问)技巧
1.零样本提示,少样本提示
左图为零样本的prompt,右图为添加了一个样本提示的prompt。
2.思维链:引导模型去推理
途中红框内第二次给出的提示词即是引导ChatGPT的显性思维链(会把思考过程全部显示出来)。
3.零样本+咒语提示词(Zero-Shot+CoT,CoT暂时不知道怎么翻译,暂时怎么叫)
特别神奇的是chatgpt居然能听懂咒语(让我们思考下,并一步一步的完成)。