2026年人工智能训练师数据归一化实操考试题库_第1页
2026年人工智能训练师数据归一化实操考试题库_第2页
2026年人工智能训练师数据归一化实操考试题库_第3页
2026年人工智能训练师数据归一化实操考试题库_第4页
2026年人工智能训练师数据归一化实操考试题库_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年人工智能训练师数据归一化实操考试题库一、单项选择题(每题2分,共20分)1.在Min-Max归一化中,若某特征原始值为x,最小值为min,最大值为max,则归一化后的值x′为A.B.C.D.答案:A解析:Min-Max归一化公式为x′=(x−min)/(max−min),将数据线性映射到[0,1]区间。2.对服从正态分布的特征进行Z-score标准化后,新特征的均值与方差分别为A.0,1B.1,0C.0,0D.1,1答案:A解析:Z-score标准化使特征服从标准正态分布N(0,1)。3.以下哪种归一化方法对异常值最敏感A.Z-score标准化B.小数定标(DecimalScaling)C.Min-Max归一化D.Log变换答案:C解析:Min-Max依赖最大最小值,异常值会显著拉伸映射区间。4.若某特征取值范围[−1000,1000],采用小数定标归一化,缩放因子应选A.10²B.10³C.10⁴D.10¹答案:B解析:小数定标取≥max(|x|)的最小10的幂,1000对应10³。5.在图像像素归一化中,将[0,255]线性映射到[−1,1],正确的变换是A.(x−127.5)/128B.x/255C.(x−255)/255D.(x−128)/128答案:A解析:先减中心127.5,再除以半幅值128,使区间对称于0。6.使用RobustScaler时,中心化和缩放分别依赖A.中位数,IQRB.均值,标准差C.中位数,标准差D.均值,IQR答案:A解析:RobustScaler用中位数减中心,用IQR(四分位距)做缩放,抗异常值。7.对稀疏矩阵执行MaxAbs归一化后,矩阵稀疏性A.不变B.增加C.减少D.变为0答案:A解析:MaxAbs按列绝对值最大元素缩放,不改变零元素位置。8.在批归一化(BatchNorm)中,可学习参数γ与β的维度与A.批次大小相同B.特征维度相同C.样本维度相同D.通道数相同答案:B解析:γ、β逐特征维度学习,与特征数一致。9.对时序数据做滑动窗口归一化时,为避免未来信息泄漏,应A.用全局统计量B.用未来窗口统计量C.用历史滚动窗口统计量D.不做归一化答案:C解析:必须用历史滚动统计,防止引入未来数据。10.若归一化后模型训练出现梯度爆炸,最可能因A.学习率过小B.权重初始化过大C.归一化后方差远大于1D.未使用激活函数答案:C解析:归一化后若方差失控,会导致梯度尺度放大。二、多项选择题(每题3分,共15分,多选少选均不得分)11.以下哪些方法可保持稀疏矩阵稀疏性A.MaxAbsScalerB.StandardScalerC.Normalizer(行范数)D.稀疏感知MinMaxScaler答案:A、C、D解析:StandardScaler需减均值,会破坏稀疏性;其余方法可保持零元素。12.关于LayerNorm与BatchNorm差异,正确的是A.LayerNorm沿特征维度统计B.BatchNorm沿批次维度统计C.LayerNorm对批次大小不敏感D.BatchNorm需要移动平均更新测试阶段统计量答案:A、B、C、D解析:四项均正确,LayerNorm在RNN中更稳定。13.对含异常值的高偏态数据,可优先考虑A.RobustScalerB.QuantileTransformer(uniformmap)C.Log1p变换后再StandardScalerD.直接MinMax答案:A、B、C解析:MinMax会被异常值拉伸,效果差。14.在联邦学习场景下,各客户端数据分布差异大,归一化策略应A.各客户端独立计算统计量B.服务器下发全局统计量C.使用差分隐私保护统计量D.客户端本地归一化后上传梯度答案:B、C、D解析:独立统计导致模型漂移,需全局统计并保护隐私。15.对图像数据做在线(逐样本)归一化的缺点包括A.批次间统计不稳定B.无法利用批次维度信息C.推理阶段需保存全局统计D.加速训练收敛答案:A、B解析:在线归一化统计波动大,收敛慢;推理无需保存,逐样本即可。三、判断题(每题1分,共10分,正确打“√”,错误打“×”)16.Z-score标准化后,异常值会被自动剔除。答案:×解析:标准化仅线性变换,不剔除样本。17.对one-hot编码特征无需再做归一化。答案:√解析:one-hot已处于0/1,无需额外缩放。18.在回归任务中,目标变量也必须归一化。答案:×解析:是否归一化目标取决于损失函数与优化器,非必须。19.使用GroupNorm时,组数必须整除通道数。答案:√解析:GroupNorm将通道分组,需整除。20.对文本TF-IDF特征执行L2归一化可提升余弦相似度计算稳定性。答案:√解析:L2归一化使向量模长为1,余弦计算等价于点积。21.在GPU训练时,归一化操作会显著增加显存占用。答案:×解析:归一化反向传播只需保存少量统计量,显存增加极小。22.对音频梅尔频谱做全局MinMax归一化会削弱说话人差异。答案:√解析:全局映射会压缩动态范围,可能抹平个性特征。23.使用Scikit-learn的StandardScaler时,调用partial_fit可流式更新统计量。答案:√解析:partial_fit支持在线学习场景。24.在强化学习中,对状态空间归一化可减小策略梯度方差。答案:√解析:状态尺度一致可降低梯度噪声。25.对类别型变量做目标编码后无需归一化。答案:×解析:目标编码值尺度可能很大,仍需归一化。四、填空题(每空2分,共20分)26.给定序列x=[4,8,12,16],使用Min-Max归一化映射到[−1,1],则x′=________。答案:[−1,−0.5,0,0.5]解析:min=4,max=16,公式x′=2×(x−4)/(16−4)−1。27.若某特征中位数=100,IQR=20,RobustScaler缩放后值为1.5,则原始值=________。答案:130解析:RobustScaler公式x′=(x−median)/IQR,x=1.5×20+100。28.对稀疏矩阵执行MaxAbs归一化,列j的最大绝对值为0,则该列归一化后________。答案:保持全零解析:分母为0时,Scikit-learn约定保持原值0。29.BatchNorm在训练阶段统计量通过________平均更新推理阶段使用。答案:指数移动平均(EMA)30.对数变换log1p(x)可缓解________分布的右偏性。答案:对数正态或高偏态31.在图像风格迁移任务中,常对VGG特征做________归一化以匹配Gram矩阵尺度。答案:InstanceNorm32.对时间序列做滚动Z-score,窗口长度应至少大于________倍周期长度以捕捉季节性。答案:233.使用QuantileTransformer(output_distribution='normal')后,特征近似服从________分布。答案:标准正态34.对文本词向量做层归一化可加速________网络训练。答案:Transformer35.在联邦学习下,为防止统计量泄露,可采用________机制加入噪声。答案:差分隐私(DP)五、计算与实操题(共35分)36.(8分)给定矩阵X(3×2)X=[(1)写出Min-Max归一化(按列)后矩阵X′(保留3位小数)。(2)若新样本x_new=[25,5000],将其映射到同一尺度,给出结果。答案:(1)列1:min=10,max=30列2:min=2000,max=8000=[0.000(2)列1:(25−10)/(30−10)=0.750列2:(5000−2000)/(8000−2000)=0.500x′_new=[0.750,0.500]37.(9分)使用Python代码实现“稀疏感知”MaxAbs归一化:输入为scipy.sparse.csr_matrix,要求不将稀疏矩阵转为稠密,返回同类型归一化矩阵。请补全空白处(每空1.5分,共6空)。```pythonfromscipy.sparseimportcsr_matrixdefsparse_maxabs_transform(X:csr_matrix)->csr_matrix:计算每列绝对值最大值max_abs=___(1)___避免除零max_abs[max_abs==0]=___(2)___构造对角缩放矩阵inv_scale=___(3)___右乘对角矩阵实现列缩放X_norm=X@___(4)___returnX_norm```答案:(1)np.array(np.abs(X).max(axis=0)).ravel()(2)1.0(3)csr_matrix(np.diag(1/max_abs))(4)inv_scale解析:利用稀疏矩阵的max方法按列统计,右乘对角矩阵完成缩放,保持稀疏结构。38.(10分)某训练集特征服从未知分布,直方图显示严重右偏,峰度>10。现有两种方案:A.直接StandardScalerB.QuantileTransformer→StandardScaler(1)写出方案B的sklearn代码(管道形式)。(2)若测试集出现比训练集更大的极端值,哪种方案更稳健?说明理由。答案:(1)```pythonfromsklearn.pipelineimportPipelinefromsklearn.preprocessingimportQuantileTransformer,StandardScalerpipe=Pipeline([('qt',QuantileTransformer(output_distribution='normal',n_quantiles=1000)),('scaler',StandardScaler())])```(2)方案B更稳健。QuantileTransformer将训练集分布映射到正态,极端值在测试集会被压缩到训练集最大分位附近,不会无限放大;而直接StandardScaler会因测试集更大异常值导致均值和方差漂移,归一化后尺度失控。39.(8分)对形状为(N,T,F)的三维时序批量数据(N样本,T时间步,F特征),需做逐样本逐特征的LayerNorm。写出PyTorch自定义层代码,要求支持任意T,不使用内置LayerNorm。答案:```pythonimporttorchimporttorch.nnasnnclassLayerNorm3D(nn.Module):def__init__(self,feat_size:int,eps=1e-6):super().__init__()self.gamma=nn.Parameter(torch.ones(feat_size))self.beta=nn.Parameter(torch.zeros(feat_size))self.eps=epsdefforward(self,x):x:(N,T,F)mean=x.mean(dim=(1,2),keepdim=True)#(N,1,1)var=x.var(dim=(1,2),keepdim=True,unbiased=False)x_norm=(xmean)/torch.sqrt(var+self.eps)returnself.gammax_norm+self.betareturnself.gammax_norm+self.beta```解析:沿T与F维度联合计算均值方差,再广播缩放偏移,实现逐样本LayerNorm。六、综合设计题(共30分)40.某医疗多中心联合建模项目,数据分布在A、B、C三家医院,特征维度d=50,包含实验室指标(连续值)与影像放射组学(连续值)。A院设备先进,指标范围宽;B院设备老旧,存在截断值;C院人群年龄偏大,分布右偏。要求:(1)设计联邦级归一化方案,确保模型聚合后推理阶段无需各院原始统计量;(2)给出隐私保护机制,防止通过统计量反推患者极值;(3)写出伪代码,涵盖训练与推理阶段统计量同步流程;(4)说明若某院新采集数据分布漂移,如何在线更新归一化参数而不泄露隐私。答案与解析:(1)采用“全局RobustScaler”:各院在本地计算50维特征的中位数与IQR,通过安全聚合(SecureAggregation)求加权平均,得到全局median与IQR,下发供各院本地归一化。RobustScaler对截断与异常不敏感,适合多中心异构。(2)隐私保护:对median、IQR加入差分隐私噪声(Laplace机制,ε=1)。使用安全聚合协议,服务器仅看到噪声聚合结果,无法获得单院统计。(3)伪代码:```python训练阶段forroundinfederat

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论