2026年自然语言处理自然语言生成测试卷及答案_第1页
2026年自然语言处理自然语言生成测试卷及答案_第2页
2026年自然语言处理自然语言生成测试卷及答案_第3页
2026年自然语言处理自然语言生成测试卷及答案_第4页
2026年自然语言处理自然语言生成测试卷及答案_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年自然语言处理自然语言生成测试卷及答案一、单项选择题(本大题共15小题,每小题2分,共30分。在每小题给出的四个选项中,只有一项是符合题目要求的)1.在2026年的主流大语言模型架构中,为了解决长上下文处理时的计算复杂度问题,下列哪种注意力机制变体被最广泛采用以实现线性复杂度?A.标准的缩放点积注意力B.多头注意力C.线性注意力或FlashAttention的优化变体D.局部窗口注意力2.在自然语言生成(NLG)的解码阶段,为了平衡生成结果的多样性和质量,下列哪组参数配置通常被认为是最优的?A.Temperature=0.0,Top-k=1B.Temperature=1.0,Top-p=0.9C.Temperature=2.0,Top-p=1.0D.Temperature=0.5,Top-k=403.关于评估机器翻译质量的指标,BLEU分数的一个显著缺陷是它主要关注:A.生成文本的语义连贯性B.参考译文与候选译文的n-gram精确匹配C.生成文本的语法正确性D.生成文本对源语言的忠实度4.在指令微调阶段,为了防止模型在处理长指令时遗忘开头的任务描述,通常采用的技术是:A.混合专家路由B.长上下文注意力偏置或位置插值C.增加Dropout率D.使用更小的学习率5.现代大模型训练中,PEFT(参数高效微调)技术中的LoRA(Low-RankAdaptation)通过引入低秩矩阵来更新权重,其核心数学假设是预训练模型的权重更新矩阵具有:A.高秩特性B.低秩特性C.稀疏特性D.正交特性6.下列哪项技术主要被用于解决大模型在生成过程中出现的“幻觉”问题?A.增加模型参数量B.检索增强生成(RAG)C.提高解码时的Temperature参数D.减少训练数据量7.在Transformer架构的数学表达中,为了防止点积数值过大导致梯度消失,缩放点积注意力机制中的缩放因子通常取为:A.B.C.D.8.在多模态自然语言生成任务中,为了将图像特征对齐到文本特征空间,通常使用的目标函数是:A.交叉熵损失B.对比损失C.均方误差损失D.Hinge损失H.2025-2026年间,针对逻辑推理能力的提升,哪种训练策略被证明对于提升模型的“思维链”能力最为有效?A.仅使用大规模无监督文本预训练B.引入过程监督数据进行强化学习(如RLAIF)C.仅增加代码数据的比例D.减少上下文窗口大小10.在评估生成式摘要任务时,ROUGE-L指标相比于ROUGE-N,其优势在于:A.计算速度更快B.能够捕捉最长公共子序列,考虑句子级别的结构信息C.对同义词替换更敏感D.不需要参考摘要11.下列关于混合专家模型中路由机制的描述,错误的是:A.每个Token可以被路由到多个专家B.路由网络通常是可微的C.为了负载均衡,通常会引入辅助损失函数D.所有专家必须处理所有的输入Token12.在自然语言处理中,词元化是将文本转换为模型输入的关键步骤。对于大模型而言,为了提高泛化能力并处理OOV(Out-of-Vocabulary)问题,最常用的词元化算法是:A.WordPieceB.BPE(BytePairEncoding)C.Word-levelTokenizationD.Character-levelTokenization13.关于人类反馈强化学习(RLHF),下列哪个公式正确描述了利用PPO(ProximalPolicyOptimization)算法进行策略更新的目标?A.(B.LC.LD.L14.在构建垂直领域的专用NLG系统时,如果显存资源受限,下列哪种PEFT方法通常效果最佳且推理开销最小?A.FullFine-tuning(全量微调)B.PrefixTuning(前缀微调)C.Adapters(适配器)D.LoRA(Low-RankAdaptation)15.针对多轮对话任务,为了保持对话历史的一致性,模型通常需要关注:A.仅最后一轮的用户输入B.所有历史轮次的对话内容C.仅系统提示词D.用户输入中的关键词二、多项选择题(本大题共10小题,每小题3分,共30分。在每小题给出的四个选项中,有多项是符合题目要求的。全部选对得3分,选对得2分,有选错得0分)1.下列哪些属于大模型自然语言生成中的对齐技术?A.RLHF(基于人类反馈的强化学习)B.DPO(DirectPreferenceOptimization)C.RLAIF(基于AI反馈的强化学习)D.NextTokenPrediction(下一个词预测)2.在Transformer模型的位置编码中,下列哪些描述是正确的?A.绝对位置编码将位置信息直接加到输入嵌入上B.相对位置编码关注Token之间的距离C.RoPE(RotaryPositionalEmbedding)通过旋转矩阵注入位置信息,具有良好的外推性D.ALiBi(AttentionwithLinearBiases)通过在注意力分数上添加与距离相关的偏置来实现位置感知3.评估生成式问答系统的质量时,通常需要考虑以下哪些维度?A.忠实度B.答案相关性C.语言流畅性D.上下文召回率4.下列哪些是导致大模型训练不稳定的原因?A.学习率过大B.批归一化在Transformer中的使用不当C.梯度爆炸D.注意力权重分布过于均匀5.在自然语言生成中,常见的解码策略包括:A.贪婪搜索B.束搜索C.核采样D.多样性采样6.下列关于数据清洗对于NLG模型重要性的叙述,正确的有:A.去除重复数据可以防止模型记忆重复内容B.过滤低质量文本可以提高模型的推理能力C.个人隐私信息(PII)去除是必要的合规步骤D.数据量越大越好,无需考虑质量7.为了提升大模型在特定任务(如代码生成)上的表现,可以采取以下哪些措施?A.在代码数据集上进行SFT(监督微调)B.引入单元测试作为奖励信号进行强化学习C.使用FIM(Fill-In-the-Middle)训练目标D.移除位置编码8.下列哪些开源大模型在2025-2026年间被认为是自然语言生成领域的SOTA或代表性模型?A.GPT-4(假设已开源部分架构细节)B.Llama3/4系列C.MistralLargeD.Claude3.5Sonnet(架构参考)9.在检索增强生成(RAG)系统中,检索模块的关键技术包括:A.密集向量检索B.稀疏检索(如BM25)C.混合检索D.重排序10.下列关于模型量化的描述,正确的有:A.量化可以减少显存占用B.量化通常会略微降低模型精度C.INT4量化是目前端侧部署的主流选择D.量化只能应用于全量微调,不能应用于LoRA三、填空题(本大题共10空,每空2分,共20分)1.在计算语言模型困惑度时,公式通常表示为PP2.在Transformer的Encoder-Decoder架构中,Decoder层的注意力掩码通常采用________矩阵,以确保预测第t个词时只能看到第1到t−3.为了解决Transformer在长文本上的位置编码外推问题,________(一种位置编码技术)通过将位置索引映射为旋转角度,使得模型能够处理训练时未见过的更长序列。4.在指令微调数据集中,通常包含三个主要字段:system(系统提示)、user(用户指令)和________(模型回答)。5.LoRA算法通过冻结预训练权重,并在Transformer的每个层旁边注入________矩阵,从而大幅减少可训练参数的数量。6.在评估文本摘要任务时,________指标基于最长公共子序列,比基于n-gram的指标更能反映句子结构相似度。7.________是一种通过在模型输出中添加随机噪声来提高生成多样性的技术,其核心公式为P(8.在混合专家模型中,为了确保所有专家被均匀利用,通常会在损失函数中加入一个辅助损失,鼓励专家的负载分布接近________分布。9.________是一种提示词工程技术,通过向上下文中添加不相关的干扰项,来测试模型提取关键信息的能力。10.在多模态生成模型中,________通常用于将图像特征映射到文本Token的嵌入维度,实现跨模态对齐。四、简答题(本大题共4小题,每小题10分,共40分)1.请简述自然语言生成(NLG)中“贪婪搜索”与“束搜索”的区别,并说明为什么在创意写作任务中通常不推荐使用贪婪搜索?2.请解释RLHF(基于人类反馈的强化学习)的基本流程,包括奖励模型训练和策略优化两个阶段,并说明其相对于仅使用监督微调(SFT)的优势。3.在Transformer架构中,多头注意力机制的作用是什么?请从模型捕捉不同语义特征的角度进行解释。4.什么是检索增强生成(RAG)?请画出RAG系统的基本工作流程图(用文字描述节点和数据流向),并说明它如何缓解大模型的幻觉问题。五、综合应用与分析题(本大题共3小题,共80分)1.(计算与分析题,25分))假设我们正在训练一个简单的语言模型,词汇表大小为3,单词分别为{A,B,C}。在某个时间步t,模型在Softmax之前的输出Logits为[2.0(1)请写出Softmax函数的计算公式,并计算该时间步三个单词的概率分布。(保留四位小数)(2)假设我们引入Temperature参数T=(3)结合计算结果,分析Temperature参数的变化对概率分布的影响及其在生成过程中的作用。2.(系统设计题,30分))某金融机构希望构建一个智能投顾助手,能够基于内部的金融研报PDF文档回答用户的专业问题,并且回答必须严格基于文档内容,不得编造。请设计一套完整的技术方案,需包含以下要点:(1)数据处理流程:如何解析PDF并进行切片?(2)检索策略:选择何种索引方式(向量索引、关键词索引或混合索引)?理由是什么?(3)提示词工程:如何设计SystemPrompt以约束模型仅基于检索到的内容回答?(4)评估指标:如何评估该系统的准确率和安全性?3.(算法分析与代码理解,25分))阅读以下关于LoRA实现的伪代码片段,回答问题:```pythonclassLinearWithLoRA(torch.nn.Module):def__init__(self,in_features,out_features,rank=4):super().__init__()self.linear=torch.nn.Linear(in_features,out_features)LoRAparametersself.lora_A=torch.nn.Parameter(torch.randn(in_features,rank))self.lora_B=torch.nn.Parameter(torch.zeros(rank,out_features))self.scaling=1.0/rankdefforward(self,x):returnself.linear(x)+(x@self.lora_A@self.lora_B)self.scalingreturnself.linear(x)+(x@self.lora_A@self.lora_B)self.scaling```(1)请解释`self.lora_A`和`self.lora_B`的初始化方式(为何一个是随机初始化,一个是零初始化)对模型训练初期的影响。(2)推导该层前向传播的数学表达式,说明其如何近似原始权重的更新。(3)如果原始线性层的权重矩阵为W∈,输入为x,那么使用LoRA后,该层的有效权重矩阵是什么?(4)在推理阶段,如何优化该结构以提高推理速度?六、参考答案及详细解析一、单项选择题1.C解析:标准缩放点积注意力和多头注意力的复杂度均为O()。局部窗口注意力虽然降低了复杂度但限制了感受野。2026年主流为了处理超长上下文(如100k+tokens),普遍采用FlashAttention的硬件优化算法或线性注意力机制,以实现线性或接近线性的计算复杂度。解析:标准缩放点积注意力和多头注意力的复杂度均为2.B解析:Temperature=1.0保持原始分布,Top-p=0.9(核采样)在累积概率达到90%时截断,既保证了质量又保留了多样性。A选项过于确定性,C选项过于随机导致不可读,D选项较为折中但B通常更优。解析:Temperature=1.0保持原始分布,Top-p=0.9(核采样)在累积概率达到90%时截断,既保证了质量又保留了多样性。A选项过于确定性,C选项过于随机导致不可读,D选项较为折中但B通常更优。3.B解析:BLEU(BilingualEvaluationUnderstudy)主要基于n-gram的精确匹配,它无法衡量语义连贯性和语法结构的深层正确性,仅仅是基于统计的重叠度。解析:BLEU(BilingualEvaluationUnderstudy)主要基于n-gram的精确匹配,它无法衡量语义连贯性和语法结构的深层正确性,仅仅是基于统计的重叠度。4.B解析:长上下文注意力偏置或位置插值技术(如ALiBi、RoPE的各种插值方法)专门用于帮助模型处理超出预训练长度的序列,防止模型对远距离信息的遗忘。解析:长上下文注意力偏置或位置插值技术(如ALiBi、RoPE的各种插值方法)专门用于帮助模型处理超出预训练长度的序列,防止模型对远距离信息的遗忘。5.B解析:LoRA基于的假设是预训练模型在适应特定任务时,权重更新矩阵具有“低秩”特性,即可以通过两个较小的矩阵相乘来近似,从而大幅减少参数量。解析:LoRA基于的假设是预训练模型在适应特定任务时,权重更新矩阵具有“低秩”特性,即可以通过两个较小的矩阵相乘来近似,从而大幅减少参数量。6.B解析:检索增强生成(RAG)通过引入外部知识库,让模型在生成答案时参考真实文档,从而显著减少模型基于概率编造事实(幻觉)的情况。解析:检索增强生成(RAG)通过引入外部知识库,让模型在生成答案时参考真实文档,从而显著减少模型基于概率编造事实(幻觉)的情况。7.A解析:Transformer论文中提出的缩放因子为,即在Softmax前除以。题目问的是缩放因子本身,通常指分母部分的维度根号,但在公式表达中,操作是除以。选项A符合数学表达中的核心因子。解析:Transformer论文中提出的缩放因子为,即在Softmax前除以。题目问的是缩放因子本身,通常指分母部分的维度根号,但在公式表达中,操作是除以。选项A符合数学表达中的核心因子。8.B解析:在多模态对齐(如CLIP模型)中,为了拉近图像和文本特征的语义距离,通常使用对比损失,最大化正样本对的相似度,最小化负样本对的相似度。解析:在多模态对齐(如CLIP模型)中,为了拉近图像和文本特征的语义距离,通常使用对比损失,最大化正样本对的相似度,最小化负样本对的相似度。9.B解析:2025-2026年的研究表明,相比于结果监督(仅看最终答案是否正确),过程监督(奖励推理过程的每一步)结合强化学习(如RLAIF)能更有效地提升模型的逻辑推理和思维链能力。解析:2025-2026年的研究表明,相比于结果监督(仅看最终答案是否正确),过程监督(奖励推理过程的每一步)结合强化学习(如RLAIF)能更有效地提升模型的逻辑推理和思维链能力。10.B解析:ROUGE-L基于最长公共子序列(LCS),它能够衡量句子级别的结构相似性,不像ROUGE-N仅基于n-gram的重叠,因此对句子重组的评价更合理。解析:ROUGE-L基于最长公共子序列(LCS),它能够衡量句子级别的结构相似性,不像ROUGE-N仅基于n-gram的重叠,因此对句子重组的评价更合理。11.D解析:MoE的核心思想是稀疏激活,即每个Token只被路由到部分专家(Top-k)进行处理,而不是所有专家。所有专家都处理所有输入会失去MoE节省计算量的意义。解析:MoE的核心思想是稀疏激活,即每个Token只被路由到部分专家(Top-k)进行处理,而不是所有专家。所有专家都处理所有输入会失去MoE节省计算量的意义。12.B解析:BPE(BytePairEncoding)及其变体(如GPT-2/3/4使用的Tokenizer)是目前大模型最主流的子词算法,能有效平衡词汇表大小和OOV问题。解析:BPE(BytePairEncoding)及其变体(如GPT-2/3/4使用的Tokenizer)是目前大模型最主流的子词算法,能有效平衡词汇表大小和OOV问题。13.A解析:这是PPO算法中ClippedSurrogateObjective的标准数学形式,旨在限制策略更新的幅度,防止策略更新过步导致崩溃。解析:这是PPO算法中ClippedSurrogateObjective的标准数学形式,旨在限制策略更新的幅度,防止策略更新过步导致崩溃。14.D解析:LoRA在推理时可以将合并后的权重注入原模型,推理架构与原模型完全一致,无额外延迟开销,且参数量远小于全量微调,优于PrefixTuning和Adapters(后者会增加推理延迟)。解析:LoRA在推理时可以将合并后的权重注入原模型,推理架构与原模型完全一致,无额外延迟开销,且参数量远小于全量微调,优于PrefixTuning和Adapters(后者会增加推理延迟)。15.B解析:多轮对话必须依赖所有历史轮次内容来理解上下文和指代消解。解析:多轮对话必须依赖所有历史轮次内容来理解上下文和指代消解。二、多项选择题1.ABC解析:RLHF、DPO、RLAIF都是对齐技术。NextTokenPrediction是基础预训练目标,不属于专门的对齐技术。解析:RLHF、DPO、RLAIF都是对齐技术。NextTokenPrediction是基础预训练目标,不属于专门的对齐技术。2.ABCD解析:A、B、C、D四项关于位置编码的描述均是正确的。RoPE和ALiBi是目前处理长序列的先进技术。解析:A、B、C、D四项关于位置编码的描述均是正确的。RoPE和ALiBi是目前处理长序列的先进技术。3.ABCD解析:评估生成式问答需要全方位考察:忠实度(不撒谎)、相关性(答非所问)、流畅度(语言自然)、召回率(是否找到了信息)。解析:评估生成式问答需要全方位考察:忠实度(不撒谎)、相关性(答非所问)、流畅度(语言自然)、召回率(是否找到了信息)。4.AC解析:学习率过大导致梯度发散,梯度爆炸导致数值溢出,这两者都会导致训练不稳定。批归一化在Transformer中通常被LayerNorm替代,但使用不当也可能有问题。D项注意力均匀通常不是不稳定的原因。解析:学习率过大导致梯度发散,梯度爆炸导致数值溢出,这两者都会导致训练不稳定。批归一化在Transformer中通常被LayerNorm替代,但使用不当也可能有问题。D项注意力均匀通常不是不稳定的原因。5.ABCD解析:贪婪、束搜索、核采样、多样性采样均为常见的解码策略。解析:贪婪、束搜索、核采样、多样性采样均为常见的解码策略。6.ABC解析:数据质量至关重要。去除重复、过滤低质、隐私保护都是关键步骤。D选项“数据量越大越好”是错误的,低质量数据会污染模型。解析:数据质量至关重要。去除重复、过滤低质、隐私保护都是关键步骤。D选项“数据量越大越好”是错误的,低质量数据会污染模型。7.ABC解析:代码任务通常需要代码数据SFT、单元测试作为奖励信号(如AlphaCode)、以及FIM训练目标(中间填充)。位置编码对于代码结构理解很重要,不应移除。解析:代码任务通常需要代码数据SFT、单元测试作为奖励信号(如AlphaCode)、以及FIM训练目标(中间填充)。位置编码对于代码结构理解很重要,不应移除。8.BC解析:Llama系列和Mistral系列是开源界的代表性SOTA模型。GPT-4和Claude3.5Sonnet主要是闭源(虽有部分权重泄露或架构讨论,但作为考试题,选开源明确的BC更严谨)。解析:Llama系列和Mistral系列是开源界的代表性SOTA模型。GPT-4和Claude3.5Sonnet主要是闭源(虽有部分权重泄露或架构讨论,但作为考试题,选开源明确的BC更严谨)。9.ABCD解析:现代RAG系统通常结合向量、稀疏(BM25)、混合检索以及重排序步骤来提升精度。解析:现代RAG系统通常结合向量、稀疏(BM25)、混合检索以及重排序步骤来提升精度。10.ABCD解析:量化能减少显存、略微降低精度、INT4是端侧主流。量化可以应用于LoRA(如QLoRA),故D错误。解析:量化能减少显存、略微降低精度、INT4是端侧主流。量化可以应用于LoRA(如QLoRA),故D错误。三、填空题1.小解析:困惑度衡量的是模型对测试集的“困惑”程度,值越小,预测越准确,交叉熵越低。解析:困惑度衡量的是模型对测试集的“困惑”程度,值越小,预测越准确,交叉熵越低。2.上三角解析:或者称为“因果掩码”,确保自回归属性,看不见未来信息。解析:或者称为“因果掩码”,确保自回归属性,看不见未来信息。3.RoPE(RotaryPositionalEmbedding)解析:RoPE通过旋转位置编码,在相对位置上表现出良好的外推能力,是Llama等模型处理长文本的关键技术。解析:RoPE通过旋转位置编码,在相对位置上表现出良好的外推能力,是Llama等模型处理长文本的关键技术。4.assistant解析:标准的对话数据集格式通常包含user,assistant,有时还有system。解析:标准的对话数据集格式通常包含user,assistant,有时还有system。5.秩分解(或低秩)解析:LoRA注入的是秩分解矩阵,即A∈,B6.ROUGE-L解析:ROUGE-L基于最长公共子序列。解析:ROUGE-L基于最长公共子序列。7.Temperature(温度)解析:公式=,即TemperatureScaling。解析:公式=,即TemperatureScaling。8.均匀解析:负载均衡损失旨在使每个专家处理的Token数量大致相等,即趋向均匀分布。解析:负载均衡损失旨在使每个专家处理的Token数量大致相等,即趋向均匀分布。9.抗干扰测试解析:或者称为“DistractionResistanceTesting”。解析:或者称为“DistractionResistanceTesting”。10.投影层(或Linear/MLP层)解析:在多模态模型(如LLaVA)中,通常使用一个简单的MLP层将CLIP的图像特征投影到LLM的词嵌入维度。解析:在多模态模型(如LLaVA)中,通常使用一个简单的MLP层将CLIP的图像特征投影到LLM的词嵌入维度。四、简答题1.答:(1)区别:贪婪搜索:在每个时间步直接选择概率最高的那个词作为当前输出。一旦选择,无法回溯。计算速度快,但容易陷入局部最优,导致重复或短视。束搜索:在每个时间步保留概率最高的前k个(BeamWidth)候选序列,并在下一步扩展所有可能的后续词,最后选出总概率最高的序列。它考虑了更多的全局可能性,通常比贪婪搜索生成质量更高。(2)不推荐原因:创意写作任务(如写小说、诗歌)需要高度的多样性和创新性。贪婪搜索倾向于生成高频出现的、平庸的词汇组合,导致文本生硬、重复且缺乏惊喜。束搜索虽然稍好,但在低Beam设置下依然倾向于高概率路径。相比之下,基于采样(如Top-p,Temperature)的方法能引入随机性,探索低概率词汇,从而生成更具创意的内容。2.答:(1)基本流程:阶段一:奖励模型训练收集人类对同一Prompt下不同模型输出的排序偏好数据(输出A>输出B)。利用这些成对比较数据训练一个奖励模型(RM),使其能对任意生成的文本打分,分数越高代表越符合人类偏好。阶段二:策略优化使用强化学习算法(如PPO),将预训练模型作为策略网络。生成文本,通过奖励模型打分,利用该分数作为奖励信号来更新策略网络的参数,最大化期望奖励。(2)相对于SFT的优势:SFT仅能模仿训练数据的风格和内容,容易产生模式化回答,且难以定义“好”的复杂标准。RLHF直接引入人类价值观(如真实性、无害性、有帮助性),通过奖励信号引导模型探索更符合人类期望的输出空间,解决了SFT无法触及的“对齐”问题,使模型更“听话”和“有用”。3.答:多头注意力机制允许模型在不同的表示子空间中并行地关注信息序列的不同位置。捕捉不同语义特征:自然语言中的词汇具有多义性和复杂的语法关系。单头注意力被迫将所有信息混合到一个空间中。多头机制将注意力分为多个“头”,每个头可以学习关注不同的特征。例如,头A可能专注于语法结构(如主谓宾关系),头B可能专注于语义关联(如颜色修饰物体),头C可能关注长距离依赖。增强表达能力:通过多个头的线性组合,模型能够捕捉到比单头更丰富、更细腻的上下文特征,从而显著提升模型理解和生成复杂文本的能力。4.答:(1)定义:检索增强生成(RAG)是一种结合了信息检索和生成式大模型的技术。在生成回答之前,先从外部知识库中检索与问题相关的文档片段,然后将这些片段作为上下文输入给大模型,最后由模型基于检索到的事实生成答案。(2)工作流程:1.索引阶段:文档库->切片->嵌入模型->向量数据库。2.检索阶段:用户查询->嵌入模型->向量检索(相似度计算)->返回Top-K相关文档片段。3.生成阶段:[用户查询+检索到的片段]->拼接为Prompt->大语言模型->生成最终答案。(3)缓解幻觉:幻觉通常源于模型生成了训练数据中不存在的错误事实。RAG通过将相关、真实的外部文档直接放入Prompt中,强制模型基于这些“证据”进行回答。如果模型被正确约束,它会更多地引用上下文中的事实,而不是依靠内部参数中可能模糊的记忆,从而大幅降低编造信息的概率。五、综合应用与分析题1.解:(1)计算原始概率分布Softmax公式:PLogitsz≈≈≈Sum=概率:PPP结果:[0.6285,0.2312,0.1402](2)计算Temperature=2.0后的概率分布缩放后的Logits:=≈≈≈Sum=概率:PPP结果:[0.4810,0.2917,0.2272](3)分析对比两组数据,原始分布中A的概率占主导(0.6285)。当Temperature升高(T=2.0)后,概率分布变得更加平滑(A降至0.4810,B和C的概率上升)

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论