大语言模型:提示工程教学课件_第1页
大语言模型:提示工程教学课件_第2页
大语言模型:提示工程教学课件_第3页
大语言模型:提示工程教学课件_第4页
大语言模型:提示工程教学课件_第5页
已阅读5页,还剩25页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第15章提示工程本章主要内容:1.提示工程概述2.提示词格式3.提示工程技术提示工程(PromptEngineering,PE)是一门融合了艺术和科学的学科,而且还是有关提问的艺术。提示工程是思维能力的综合表现,这门学科不仅需要理解技术,还需要一定的创造力和战略思维。15.1概述13.1.1T5提示词与提示工程提示词是指用户向大模型提供的输入信息,这些输入信息通常包含关键词、问题或指令,其目的是引导大模型生成用户期望相符的回应。大模型能够模拟人类交流的方式与用户进行互动,而且在互动过程中,它努力理解用户的要求,并给出相应的回答。它的输入的信息就是“提示词”。在用户与大模型互动的过程中,提示词宛如一条纽带连接用户与大模型,所以一个精心设计的提示词能够让大模型更准确地捕捉到用户的需求,从而为用户提供更有价值的回答,也就是说,用户准确提示词可以充分发挥大模型的潜力

例15-1,简单提示词。 提示词:您好! 大模型:有什么可以帮助您的吗?如果有任何问题或需要信息,请随时告诉我 提示词:什么是大模型的提示词? 大模型:大模型的提示词是指输入到大型语言模型中的一段文本,它用于指导模型生成特定的输出。提示词是用户与模型互动的一种方式,它可以是一个问题、一个句子、一个指令或者任何形式的前缀文本,用来激发模型生成相关的回答或文本。.1.文本生成。2.文本分类。3.信息提取。4.文本蕴涵。5.问答系统。6.自然语言推理。7.文本到文本的转换。8.多语言处理。9.适应性学习。10.上下文理解。上述功能是T5模型在实际应用中能够执行的具体操作,而其特点(如统一框架、预训练任务、模型架构等)则是支持这些功能实现的背后技术和设计选择。以下是一些关于大模型提示词的要点:(1)引导生成:提示词可以帮助模型理解用户想要生成的文本类型或内容。例如,如果用户想要生成一首诗,他们可能会提供一个与诗歌相关的提示词。(2)上下文提供:提示词为模型提供了必要的上下文信息,使得模型能够更准确地理解用户的意图,并据此生成更加相关和准确的文本。.(3)格式和风格:提示词可以指定文本的格式、风格或语气。例如,用户可以通过提示词要求模型以正式或非正式的语气来回答问题。(4)任务指定:在执行特定任务时,提示词可以明确告诉模型需要完成的任务类型,如翻译、摘要、问答等。(5)示例提供:有时,用户会提供一些示例作为提示词的一部分,帮助模型更好地理解期望的输出结构或内容。(6)优化输出:通过精心设计的提示词,用户可以引导模型生成更加精确和高质量的输出。2.提示工程(1)提示工程的定义提示工程是指设计和优化用于与大型语言模型互动的提示词的过程。它是确保大模型能够以期望的方式响应和生成高质量输出的关键步骤。提示工程主要包括下述几方面: ①提示词设计:创造能够清晰传达用户意图的提示词,包括提供足够的背景信息、指定任务类型和期望的输出格式。 ②上下文构建:在提示词中嵌入必要的上下文信息,帮助模型更好地理解任务的具体要求。。 ③示例利用:在提示词中使用示例,指导模型理解用户想要的输出结构和风格 ④迭代优化:根据模型的输出反馈,不断调整和改进提示词,以提高输出文本的相关性和质量。 ⑤格式调整:调整提示词的格式,比如使用特定的标记或关键词,来指导模型遵循特定的响应模式。 ⑥性能测试:测试不同的提示词对模型输出的影响,以找到最佳的提示词组合。通过提示工程,用户可以更有效地利用大型语言模型的能力,实现更精确、更符合需求的文本生成和任务执行。 提示工程是提供精心设计、优化提示信息,来引导大模型生成高质量、准确、有针对性的回应,其目的是优化用户与大模型的互动过程。在自然语言处理中,提示工程通常指的是为语言模型设计输入提示,以便获得相关、准确和多样化的输出。例如,当我门与同事交谈时,语言和表达方式将直接影响对方的理解和回应。(2)提示工程的进一步解释

提示工程是一门高度依赖经验的过程科学,涉及对问题表述和关键词的选择、上下文设置及限制条件等方面的细致调整,以提高大模型回应的有效性、可用性和满足用户需求的程度。

①提示工程涉及到如何设计有效的提示来引导大模型更好地完成特定的任务。在提示工程中,不是通过大量的数据来训练模型,而是通过调整模型输入的提示词来使任务更靠近模型,而不需要调整模型参数来使模型更靠近需要完成任务。.

②提示工程依赖于高质量的提示词设计,而对于复杂的任务,这些提示词可能难以创建。此外,提示学习可能不会对所有类型的任务都有效,特别是那些需要模型深刻理解任务上下文的任务。

③提示工程不是替代传统的模型训练方法,通常被视为一种补充方法。而一个好的提示应该能够:清晰地传达任务的要求,激发模型的相关知识,引导模型生成准确和有的回应。

④提示工程与提示微调含义相同,都是激发语言模型的补全能力。例如根据上半句生成下半句,或是完形填空等。(3)提示工程应用

在大模型中,提示工程有如下应用:

①文本生成:使用提示来指导模型生成特定主题或风格的文本。

②问答系统:利用提示帮助模型理解问题的背景和所需的回答格式。

③代码补全:提供编程语言的提示模板,帮助模型生成合适的代码片段(4)提示工程的关键要素

①目标明确:清晰地定义你希望模型生成的输出类型。

②上下文提供:给出足够的背景信息,使模型能够理解任务的上下文。

③示例指导:提供示例或模板,引导模型生成期望格式的输出。

④迭代优化:根据模型的输出调整提示,以获得更优的结果。

⑤避免歧义:确保提示清晰、具体,避免可能导致误解的多义性。

15.1.2LLM文本生成的解码策略

大模型文本生成的解码策略是指大模型的设置。在自然语言任务中,通常使用一个预训练的大模型(比如GPT)来根据给定的输入文本(比如一个开头或一个问题)生成输出文本(比如一个答案或一个结尾)。为了生成输出文本,需要让模型逐个预测每个token,直到达到一个终止条件(如一个标点符号或一个最大长度)。在每一步,模型会给出一个概率分布,表示它对下一个单词的预测。 在大模型中,温度、top-k采样和top-p采样等为设置参数,通过优化设置,可以进一步优化生成文本的质量和多样性,这就是大模型文本生成的解码策略。1.选择下一个单词的基本方法 从一个概率分布中选择下一个单词的基本方法如下。 (1)贪心解码:直接选择概率最高的单词。这种方法简单高效,但是可能会导致生成的文本过于单调和重复。 (2)随机采样:按照概率分布随机选择一个单词。这种方法可以增加生成的多样性,但是可能会导致生成的文本不连贯和无意义。 (3)束搜索:是一种启发式图搜索算法,常用于自然语言处理中的机器翻译和文本生成任务。它通过维护一个候选解的列表(即“束”),在每一步选择最有可能的候选解进行扩展。这种方法在保持解空间多样性的同时,减少了搜索空间的大小,从而提高了搜索的效率。束搜索的基本步骤如下:

.①初始化:选择初始状态作为当前状态,并计算其可能的后续状态(如翻译中的第一个词的所有可能翻译)。 ②选择:从当前状态的所有可能后续状态中,选择最有可能的前k个状态(k为beamsize),作为新的当前状态集。 ③扩展:对于每一个新的当前状态,计算其所有可能的后续状态。 ④重复:重复步骤2和步骤3,直到达到终止状态(如生成句子的结束符)。 ⑤输出:从终止状态中,选择最有可能的状态作为输出结果。 束搜索的一个关键参数是beamsize(k),它决定了算法在每一步考虑的候选解的数量。较大的beamsize可以增加找到最优解的机会,但同时也会增加计算成本。因此,在实际应用中,需要根据具体任务和计算资源来选择合适的beamsize。 需要注意的是,束搜索并不保证找到最优解,但它通常能够找到足够好的解,并在效率和效果之间取得平衡。 .2.Top-k采样

Top-k采样是对前面贪心策略的优化,它从排名前k的token中进行抽样,允许其他分数或概率较高的token也有机会被选中。在很多情况下,这种抽样带来的随机性有助于提高生成质量。

Top-k采样是一种在自然语言处理中用于文本生成的采样技术。top-k采样的思路是,在每一步,只从概率最高的k个单词中进行随机采样。只考虑概率最高的k个词,而不考虑其他低概率的词,然后从这k个词汇中随机选择下一个词。这种方法既可以减少低概率词的干扰,同时保持一定程度的随机性,使得生成的文本既有一定的多样性,又不会过于偏离模型的预测。 (1)Top-k采样的步骤 ①计算词的概率分布:对于给定的输入,模型计算输出词汇的概率分布。 ②选择概率最高的k个词:即从概率分布中选出概率最高的k个词。 ③对这k个词进行归一化:将这k个词的概率进行归一化,使得它们的总和为1。 ④从这k个词中随机采样:根据归一化后的概率分布,从这k个词中随机选择下一个词作为输出。

Top-k采样的优点是简单易实现,并且可以有效地控制生成文本的多样性。与贪婪解码(总是选择概率最高的词汇)相比,Top-k采样能够避免模型重复使用相同的词,从而生成更加丰富的文本。 在实际应用中,k的值可以根据需要生成的文本的多样性和质量来进行调整。通常,k的值设置在1到100之间。如果需要生成更加多样化和创意的文本,可以提高k的值;如果需要生成更加准确和保守的文本,可以降低k的值。需要注意的是,k的值设置得过低可能会导致生成的文本缺乏多样性,而设置得过高可能会导致生成一些不太可能的词。因此,选择合适的k值是很重要的。.(2)top-k采样优点 ①它可以根据不同的输入文本动态调整候选单词的数量,而不是固定为k个。这是因为不同的输入文本可能会导致不同的概率分布,有些分布可能比较平坦,有些分布可能比较尖锐。如果分布比较平坦,那么前k个单词可能都有相近的概率,那么就可以从中进行随机采样;如果分布比较尖锐,那么前k个单词可能会占据绝大部分概率,那么就可以近似地进行贪心解码。 ②可以通过调整k的大小来控制生成的多样性和质量。一般来说,k越大,生成的多样性越高,但是生成的质量越低;k越小,生成的质量越高,但是生成的多样性越低。因此,可以根据不同的任务和场景来选择合适的k值。 ③它限制了低概率词的选取,从而减少了生成不相关或不合逻辑文本的风险。同时,由于它考虑了多个高概率词,因此比Top-1采样具有更高的多样性。然而,Top-k采样会忽略一些概率虽然较低但有潜在重要性的词,因此k值需要根据具体任务进行调整。 ④可以与其他解码策略结合使用,例如温度调节、重复惩罚、长度惩罚等,来进一步优化生成的效果。(3)top-k的缺点 ①可能会导致生成的文本不符合常识或逻辑。这是因为top-k采样只考虑了单词的概率,而没有考虑单词之间的语义和语法关系。例如,如果输入文本是“我喜欢吃”,那么即使饺子的概率最高,也不一定是最合适的选择,因为可能用户更喜欢吃其他食物。 ②可能会导致生成的文本过于简单或无聊。这是因为top-k采样只考虑了概率最高的k个单词,而没有考虑其他低概率但有意义或有创意的单词。例如,如果输入文本是“我喜欢吃”,那么即使苹果、饺子和火锅都是合理的选择,也不一定是最有趣或最惊喜的选择,因为可能用户更喜欢吃一些特别或新奇的食物。 因此,通常会考虑top-k和其它策略结合,比如top-p。.3.Top-p采样

Top-p是一种在自然语言处理中用于文本生成的采样技术。它允许模型在生成文本时考虑概率最高的词汇,但同时保持一定程度的随机性。top-p采样的思路是,在每一步,只从累积概率超过某个阈值p的最小单词集合中进行随机采样,而不考虑其他低概率的单词。这种方法也被称为核采样,因为它只关注概率分布的核心部分,而忽略了尾部部分。例如,如果p=0.9,那么只从累积概率达到0.9的最小单词集合中选择一个单词,而不考虑其它累积概率小于0.9的单词。这样可以避免采样到一些不合适或不相关的单词,同时也可以保留一些有趣或有创意的单词。

Top-p采样的主要思想是选择一个概率阈值(p),然后从概率分布中累计概率,直到累计概率超过这个阈值。之后,只从这些累计概率超过阈值的词汇中随机选择下一个词汇。 具体来说,Top-p采样的步骤如下: ①计算词汇的概率分布:对于给定的输入,模型计算输出词汇的概率分布。 ②对词概率进行排序:将词汇按照其概率从高到低进行排序。 ③累计概率:从概率最高的词开始,累计概率,直到累计概率超过给定的阈值p为止。 ④从累计概率超过p的词中随机采样:从累计概率超过p的词中随机选择下一个词作为输出。.4.温度采样 温度采样(TemperatureSampling)是一个调整模型输出概率分布的技术。这里的“温度”是一个超参数,用于控制模型输出的多样性或随机性。(1)温度的概念·高温:当温度值较高时,模型的输出概率分布会更加平滑,这意味着模型更有可能产生多样化和随机的结果。在文本生成中,这可能导致更多的创造性文本,但也可能包含更多的错误。·低温:当温度值较低时,模型的输出概率分布会更加尖锐,模型倾向于选择概率最高的输出,这会导致模型输出更加确定和保守。在文本生成中,这可能导致文本更加一致和可预测,但可能缺乏新颖性。(2)温度采样的应用①文本生成:在生成文本时,温度可以用来控制生成句子的多样性和随机性。例如,在生成诗歌或故事时,一个较高的温度可能会产生更加独特和有趣的文本。②分类问题:在分类问题中,特别是在模型输出不确定时,调整温度可以帮助控制模型对预测的信心。(3)如何进行温度采样①计算Logits:首先,模型会根据输入数据计算出一个logits向量。②应用Softmax函数:然后,通常会对logits应用softmax函数来得到一个概率分布。③调整概率分布:在应用softmax之前,可以将logits除以温度T(一个正数),这样就可以控制概率分布的形状。④采样:最后,根据调整后的概率分布进行采样,以选择模型的输出。.5.联合采样 联合采样通常是将top-k、top-p、Temperature联合起来使用。使用的先后顺序是:top-k→top-p→Temperature。 例如,首先我们设置top-k=3,表示保留概率最高的3个token。这样就会保留A、B、C这3个token,其概率是:A:0.664B:0.199C象:0.105

接下来,可以使用top-p的方法,保留概率的累计和达到0.8的单词,也就是选取女孩和鞋子这两个token。接着我们使用Temperature=0.7进行归一化,变成:A:0.660B:0.340

最后,可以从上述分布中进行随机采样,选取一个单词作为最终的生成结果。15.2提示词格式

15.2.1提示词基本格式 为了确保大模型能够理解任务并生成适当的响应,通常需要结构化的提示词来引导它们生成准确和相关的输出。提示词的基本格式如下:

[指令/任务]:[具体任务描述][上下文/背景信息]:(可选)[提供相关的背景信息或上下文][输入数据/信息]:(可选)[提供输入数据或附加信息][输出要求]:(可选)[指定输出格式、长度、风格等][额外指令]:(可选)[任何额外的指导或要求]

在提示词基本格式中,每个部分的作用如下:·指令/任务:明确告诉模型需要执行的任务类型,如总结、翻译、生成文本、回答问题等·上下文/背景信息:提供任务的背景信息,帮助模型更好地理解任务和上下文。·输入数据/信息:提供执行任务所需的数据或信息,如文章、数据集、问题等。·输出要求:指定期望的输出特性,如文本长度、格式、风格、语言等。·额外指令:提供任何其他特定指导或要求,以确保模型的输出符合用户的期望根据不同的模型和任务,这些部分的详细程度和内容可以有所不同。在某些情况下,某些部分可能是不必要的,例如,如果任务非常简单,可能不需要背景信息或额外指令。重要的是要确保提示词清晰、具体,并且适合模型的能力和任务的复杂性。.例如,文本生成提示词: 任务类型:撰写一篇关于人工智能未来发展的博客文章 上下文信息:考虑当前的技术趋势和社会影响 输出要求:文章长度在800至1000字之间,采用通俗科普风格 例如,问答提示词: 输入数据:量子计算机是如何工作的? 输出要求:提供一个简单易懂的解释,不超过200字 例如:文本分析提示词。 在基本提示词格式时,需要确保提供足够的信息和上下文,以便大模型能够理解任务的要求并生成高质量的输出。根据模型的特定能力和特点,提示词格式可以适当调整。可以将提示词格式细分为指令型、问题型和描述型三种格式。 15.2.2指令型提示词格式指令型提示词的格式通常遵循以下结构,以确保模型能够清晰地理解任务要求和执行细节:

[指令类型]:[具体指令][参数/选项]{细节描述/额外要求}

例如:

·文本生成提示词: 生成文本:请创建一个关于未来城市的科幻故事,确保包含高科技元素和环境保护的主题。

·图像识别提示词: 图像识别:识别图片中的动物种类,输出最有可能的五个分类及其概率。15.2.3问题型提示词格式问题型提示词的格式通常用于提出问题或查询,以便模型能够提供相关的答案或信息。以下是一个通用的问题型提示词格式

[问题类型]:[具体问题][可选的上下文或细节]

例如:

1.事实性问题 事实性查询:什么是黑洞?请提供定义和基本特征。

2.解释性问题 解释性查询:请解释相对论的基本原理及其对现代物理学的影响。

3.比较性问题 比较性查询:请比较太阳能和风能作为可再生能源的优缺点。

5.预测性问题 预测性查询:根据当前的气候变化趋势,预测未来30年地球气候的可能变化。 在使用这些格式化的提示词时,确保问题清晰、具体,并且提供了足够的上下文,以便模型能够提供准确和有针对性的答案。15.2.4描述型提示词格式为了获得更准确、更符合需求的结果,可以遵循描述型提示词的格式:任务指令:明确告诉模型希望它执行的任务类型,如“描述”、“解释”、“总结”、“翻译”、“生成”等。主题内容:具体说明希望模型讨论或描述的主题,这可以是具体的名词、概念或者话题。详细要求:提供更详细的信息,包括希望模型在回答时考虑的特定方面、风格、格式、长度等。特殊指令:如果有特定的要求,比如使用某种数据、避免某些词汇、遵循特定的观点等,在此处说明。结束信号:有时候可以加上一个结束的标识,如“请回答:”,以明确提示模型输出开始的位置。 这样的格式有助于模型更准确地理解用户的需求,从而提供更恰当和有用的回答 例如,一个描述型提示词的示例格式。

[任务指令]请解释

[主题内容]大语言模型的基本内容,

[详细要求]请分别对大语言模型的每个部分进行详细说明,并举例说明其应用,

[特殊指令]请使用易于理解的表述,不要涉及复杂的数学公式,

[结束信号]请回答: 这样的格式有助于模型更准确地理解用户的需求,从而提供更恰当和有用的回答。15.2.5提示增强格式可以通过一些策略与技巧来增强提示。

1.清晰的说明 是实现该策略的主要技巧如下。 (1)使用分隔符 分割符:单引号,三引号*”“”“”"*,大括号{},XML标记,节标题等,使用分隔符是为了让大模型更好的理解用户的命令,消除歧义。这个技巧在提示词中会大量用到,很重要。 在使用大模型时,通常建议使用特定的分隔符来分隔不同的提示词,以便模型更好地理解和学习每个提示词的含义。在具体应用中,分隔符可以是各种符号,如逗号、分号和空格等。具体使用何种分隔符,取决于模型的要求和实际任务的场景。如果正在构建一个涉及多个关键词的任务,可以使用逗号来分隔这些关键词。如果任务需要更复杂的结构化数据,可能需要使用其他分隔符,使用分号来分隔不同的字段:“字段1:值1;字段2:值2;字段3:值3”

使用大模型提示词格式的分隔符格式:翻译这段文本|||[源语言]|||[目标语言]

翻译:人工智能是计算机科学的前沿。|||中文|||英语生成一个产品描述|||[产品名称]|||[产品功能]

.(2)提供示例 对于大模型提示,有时候用户自己表述的输出格式可能不如一个示例的效果来得更直观、清晰。这是因为示例可以提供一个具体的场景,让人们更直观地理解大模型提示的使用方法和效果。例如: 用户提示:利用列表的格式示例描述人工智能博弈的作用。 大模型输出结果:选择哪种分隔符应根据具体需求和模型的预期使用方式来定。在实际操作中,可能需要通过实验和调整来找到最适合任务的符号。----------------------------------------------------------人工智能博弈的作用包括:1.游戏策略优化:AI可以分析游戏数据,为玩家提供最佳策略,提高游戏胜率。2.对手模拟:AI可以模拟真实对手的行为,为玩家提供练习和提高技能的机会。3.游戏自动化:AI可以自动执行游戏中的某些任务,如自动移动或攻击,减轻玩家的负担。4.游戏平衡:AI可以帮助开发者调整游戏规则,确保游戏的公平性和挑战性。5.数据分析:AI可以分析玩家的行为和游戏数据,帮助开发者改进游戏设计,优化游戏体验。-------------------------------------------------------------------------------.(3)固定长度 提示词可以根据需要提示模型回答内容长度,如果需要模型回答内容简洁,可以固定长度短一点,例如用100字总结这段话。如果需要模型回答内容很多,可以固定长度长一点,例如用1000字写一篇文章等。 (4)参考文本 可以让模型只参考用户给定的文本进行回答,不用其自身的知识。 使用场景:客服问题,参考文章回答问题,随机抽题或者补充一些大模型可能不知道的知识。 示例:扮演面试官随机抽题 提示词:你是一名精算的面试官,我今天参加你的面试,你准备了一些题目,请你从下面的题目中随机抽取一道给我,当我回答“下一个问题”时候,你需要再抽一道题给我。具体要求:1.你必须从下面的题目中抽取题目,不可以自己生成;2.如果题目都已经抽完了,你需要告诉我面试已结束;3.你不需要对题目做任何解释,只需要给出原题就行。题目:“1.20+30=?2.30+40=?3.40+50=?4.50+60=?”

.大模型与用户输出结果:------------------------------------------------------------------------------

大模型:好的, 用户:请回答以下题目

1.20+30=? 用户:50

大模型:下一个问题:

2.30+40=? 用户:70

大模型:下一个问题:

2.40+50=? 用户:90

大模型:下一个问题:

4.50+60=? 用户:110

大模型:面试已结束。感谢你的回答。-----------------------------------------------------------------------------------------.2.将复杂任务拆分为简单的子任务 (1)任务分类拆分 按步骤拆分上述任务是将一个复杂问题拆分成多个小问题,同时让模型一个个解决,给他思考的时间,它的输出结果会更加好。例如: 提示词: 你现在是一名时间序列数据分析师,我正在学习分析时间序列数据的趋势,你需要辅助我学习,要求如下:1.详细介绍一个时间序列数据趋势这个概念;2.有哪些方法可以分析趋势;让我们一步一步思考。 大模型输出: 1.时间序列数据趋势的概念:时间序列数据是按照时间顺序收集的数据,可以用于研究某个或某些变量随时间变化的模式。这些数据可能是在固定频率(每日、每月或每年)或不规则间隔收集的。在时间序列数据中,“趋势”是一个关键概念。趋势描述的是数据随时间变化的长期运动或方向。比如,公司的年销售额可能显示出上升趋势,意味着销售额随着时间的推移在增加。或者,一种疾病的发病率可能显示出下降趋势,表明该疾病的发病率随着时间的推移在减少。这些都是趋势的例子。

2.分析时间序列数据趋势的方法: (1)移动平均法(MovingAverages):移动平均是一种在时间序列数据中平滑数据并识别隐藏的趋势和模式的方法。 (2)指数平滑法(ExponentialSmoothing):指数平滑是一种用于时间序列数据的平滑方法,特别适用于对未来点进行预测。 (3)自回归移动平均模型(ARIMA):ARIMA模型是一种可以捕获一系列不同时间序列数据的模式的统计模型。 .3.给大模型思考机会与时间 (1)从第一性原理出发,指示模型在匆忙得出结论之前制定自己的解决方案 第一性原理(FirstPrinciplesThinking)是一种解决问题和创新的方法,它要求我们回到最基本的事实和不可争议的真理,然后从这些最基础的概念出发,重新构建复杂的思想和问题。第一性原理思维与传统的归纳或演绎思维不同,这种方法鼓励我们忽略传统的假设和现有的认知,而是去寻找最根本的因果关系和逻辑。第一性原理思维被广泛应用于科学研究、工程设计、商业战略、教育等多个领域。它帮助人们以更加系统和科学的方式来理解和解决问题,有助于培养创新能力和批判性思维。 这种思维方式强调了以下几个步骤: ①定义问题:明确你要解决的问题是什么,将其分解为更小的部分。 ②寻找基本事实:确定问题中最基础的、不可争议的事实和原理。 ③逻辑推理:从这些基本事实出发,使用逻辑推理来构建对问题的理解。 ④创新构建:鼓励创新思维,但所有创新都必须基于第一性原理。 ⑤解决方案:基于以上步骤,形成解决方案或新观点。 例如我们在修改代码时,模型会分析你的代码的错误,然后在你的代码继续上进行修改,但如果你的代码逻辑就不对,错误就很多,GPT就会一直帮你缝缝补补。如果让它先自己给出解题方法,然后跟你的方法对比找出问题,可能会看到意向不到的效果。

(2)使用内心独白或一系列查询来隐藏模型的推理过程 内心独白是一种可以用来缓解这种情况的策略。内心独白的想法是指示模型将输出中要对用户隐藏的部分放入结构化格式中,以便于解析它们。然后,在向用户呈现输出之前,将解析输出,并且仅使部分输出可见。

.4.分段分次输入 无论是GPT3还是GPT4,每次输入的长度都有限制。 (1)分段输入 如果文本过长,则无法一次性输入,需要将一个长文本分段输入。 提示词: 你现在是我的文章助手,你具备深度概括和总结一篇长文章的能力,我会将一篇长文章分成3段输入给你,你收到段落后,只需要回答已学习,当我发送指令{请总结}时,你再总结这篇文章,在总结前你需要深入理解这篇文章,然后通俗易懂,简洁地总结文章,字数要求200字。如果你明白了,请复述指令。

(2)分次输入 如果我们想要输入多个短文本给GPT,但合起来可能就超出了输入长度限制,这就需要分次输入。 提示词: 你现在是我的文章助手,你具备深度概括和总结多篇文章的能力,我会将3篇文章分三次输入给你,你收到一篇文章后,只需要回答已学习,当我发送指令{请总结}时,你再总结这篇文章,在总结前你需要深入理解这3篇文章,然后通俗易懂,简洁地总结这3篇文章,字数要求200字。如果你明白了,请复述指令。 通过这条提示词指令只是打破了GPT对一条指令的输入长度的限制,但如果超过了GPT的上下文记忆长度,GPT可能就记不得前面的内容了。这一点需要注意。所以这个方法还是有限制的。

15.2.6不同任务的提示词经常使用的任务是:文本摘要、问答、文本分类、角色扮演、代码生成和推理等。

1.文本摘要 输入内容:文本

…………

提示词指令:用一句话解释上述内容 输出结果:

…………

例如: 温度可以控制大模型输出内容的稳定性,因为LLM的输出是通过概率来排序。如果对同一个问题需要每次输出完全一致的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论