2025年监督学考试题及答案_第1页
2025年监督学考试题及答案_第2页
2025年监督学考试题及答案_第3页
2025年监督学考试题及答案_第4页
2025年监督学考试题及答案_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2025年监督学考试题及答案一、单项选择题(每题1分,共20分)1.在监督学习中,若训练集标签存在5%的随机噪声,下列哪种方法对模型鲁棒性提升最直接?A.增加网络深度B.采用早停策略C.使用对称交叉熵损失D.对输入做Z-score标准化答案:C解析:对称交叉熵损失对标签翻转噪声具有理论鲁棒性,其梯度在噪声点处期望为零,可直接抵消噪声影响。2.给定高维稀疏文本特征,若类别极度不平衡(正负比1:99),首选的基线模型是:A.朴素贝叶斯B.随机森林C.XGBoostD.深度残差网络答案:A解析:高维稀疏条件下,朴素贝叶斯条件独立假设反而降低过拟合风险;多项式模型对词频稀疏矩阵计算高效,且对不平衡数据无需额外采样。3.在K折交叉验证中,若K=N(样本量),则下列说法正确的是:A.偏差增大,方差减小B.偏差减小,方差增大C.训练时间复杂度为O(N²)D.对异常点敏感度下降答案:B解析:留一法(LOOCV)偏差最低,但模型高度相关导致方差最大;训练N次模型,复杂度为O(N·T),T为单次训练复杂度,未必O(N²)。4.使用线性SVM时,若特征维度d远大于样本量N,最可能发生的数值问题是:A.核矩阵奇异B.Hesse矩阵条件数过大C.对偶目标函数无界D.支持向量数量超过N答案:B解析:高维下样本协方差矩阵秩≤N,导致Hesse矩阵接近奇异,条件数爆炸,梯度下降收敛缓慢。5.在深度网络中,BatchNorm的“平移参数β”在反向传播时:A.不参与梯度计算B.仅影响下一层权重C.通过链式法则影响所有前层D.被L2正则化忽略答案:C解析:β参与归一化后线性变换,损失对β的梯度会沿计算图回传至所有前层参数。6.若采用Plattscaling将SVM输出转为概率,需额外训练的参数个数为:A.0B.1C.2D.类别数×2答案:C解析:Plattscaling用sigmoid(a·f+b),需学习尺度a与偏移b共2个参数。7.在多任务学习中,若两个任务标签空间相同但输入分布不同,最合适的共享策略是:A.共享底层卷积,任务特定全连接B.共享全部参数C.仅共享优化器状态D.共享BatchNorm统计量答案:A解析:输入分布差异大,底层特征可共享,高层语义需任务特定分支以缓解负迁移。8.下列关于FocalLoss描述错误的是:A.调制因子(1-p)^γ降低易分样本权重B.当γ=0时退化为交叉熵C.对噪声标签具有天然鲁棒性D.适用于前景背景极不平衡检测任务答案:C解析:FocalLoss未对标签噪声建模,噪声点仍会被乘上非零权重,鲁棒性不如对称损失。9.若使用EarlyStopping,patience=10,监控验证loss,则模型可能:A.在第5epoch停止B.在第10epoch停止C.在第20epoch停止D.永不停止答案:C解析:patience=10指验证loss连续10epoch未改善才停止,故最早在第11epoch触发,实际停止epoch≥11。10.在随机森林中,关于OOB误差说法正确的是:A.需额外划分验证集B.与袋外样本比例无关C.是无偏估计但方差高D.可用于特征重要性计算答案:D解析:OOB样本可直接用于计算置换重要性,无需额外验证集;其估计虽有偏但实用。11.若将GBDT的learningrate设为1,最可能:A.训练误差快速收敛到0B.验证误差单调下降C.出现“退化”现象D.树深度必须设为1答案:C解析:过大步长导致后续树拟合残差方向错误,验证误差震荡甚至上升,即退化。12.在文本分类中,使用预训练BERT做微调,若GPU显存不足,最佳折中方案是:A.冻结所有层仅训练分类头B.降低batchsize到1C.使用梯度累积+半精度D.改用ELMo答案:C解析:梯度累积等价扩大batch,半精度减少显存占用,同时保持大部分参数可训练。13.若采用5×2交叉验证进行成对t检验,比较算法A与B,则自由度为:A.4B.5C.8D.10答案:C解析:5×2共10次差值,每次差值方差估计用2折,合并后自由度为5×(2-1)×2=8。14.在图像分割任务中,DiceLoss相比交叉熵优势在于:A.对像素级噪声敏感B.对前景区域大小不敏感C.可直接优化IoUD.梯度更稀疏答案:B解析:Dice系数是前景区域重叠度量,分母含前景像素总数,可抵消类别不平衡。15.若使用PCA降维至k维后再训练softmax,当k小于类别数C时:A.模型必然欠拟合B.决策边界线性不可分C.仍可能达到训练误差0D.需用核技巧答案:C解析:softmax为线性模型,PCA投影后若样本线性可分仍可完美拟合;k<C不必然欠拟合。16.在深度强化学习监督预训练阶段,若人类标签动作与真实最优动作存在系统偏差,可缓解的方法是:A.增加探索噪声B.使用行为克隆+DAggerC.提高折扣因子D.增大学习率答案:B解析:DAgger通过迭代收集新状态分布数据,减少协变量偏移,缓解系统偏差。17.若对神经网络权重采用SpectralNormalization,主要目的是:A.加速收敛B.满足1-Lipschitz约束C.降低内存占用D.实现稀疏化答案:B解析:SpectralNorm将权重矩阵最大奇异值约束为1,使判别器满足1-Lipschitz,稳定GAN训练。18.在类别增量学习中,若使用EWC正则,重要度矩阵F对角线近似为:A.损失对参数的二阶导B.损失对参数的一阶导平方期望C.参数先验方差D.Fisher信息矩阵对角线答案:D解析:EWC用Fisher信息估计参数重要性,对角线近似简化计算。19.若使用Mixup数据增强,则最小化经验风险等价于:A.最大化边缘分布熵B.最小化Vicinal风险C.最小化真实风险D.最大化Rademacher复杂度答案:B解析:Mixup在样本邻域(vicinal)分布上定义风险,最小化该风险提升泛化。20.在联邦学习场景,若客户端数据Non-IID且倾斜严重,FedProx相比FedAvg改进在于:A.增加上传频率B.引入近端项限制本地更新漂移C.采用动量加速D.共享私有数据答案:B解析:FedProx在本地目标加近端项‖w-w_t‖²,限制漂移,缓解Non-IID导致的异构性。二、多项选择题(每题2分,共20分)21.关于Dropout,下列说法正确的是:A.测试时需对权重乘以保留概率B.可视为集成无限多子网络C.与L2正则等价D.在RNN时间步共享mask会削弱效果答案:A、B、D解析:测试阶段需缩放;Dropout等价Bagging指数级子网络;共享mask导致时间相关性,削弱正则效果。22.下列哪些技术可直接用于处理标签噪声:A.自举(Bootstrapping)B.协同教学(Co-teaching)C.虚拟对抗训练(VAT)D.广义交叉熵(GCE)答案:A、B、D解析:VAT针对输入扰动,不直接建模标签噪声。23.若使用XGBoost,哪些操作可降低过拟合:A.增大subsampleB.增大lambda(L2正则)C.减小learningrate同时增加n_estimatorsD.增大max_depth答案:B、C解析:增大lambda直接惩罚权重;低学习率+多树可平滑决策函数;增大深度与subsample均可能过拟合。24.关于AUC-ROC,下列正确的是:A.对类别分布敏感B.等于Wilcoxon统计量C.可解释为随机正样本得分高于负样本的概率D.当正负样本完全separable时为1答案:B、C、D解析:AUC-ROC对分布不敏感;与Wilcoxon等价;完美分离时AUC=1。25.在神经网络二分类中,若输出层使用tanh激活,损失函数选用均方误差,则:A.最后一层输出范围[-1,1]B.存在梯度消失风险C.可等价于交叉熵D.需将标签映射到{-1,1}答案:A、B、D解析:tanh输出∈[-1,1],需标签匹配;饱和区梯度小;与交叉熵不等价。26.若采用贝叶斯优化调参,其采集函数包括:A.PIB.EIC.UCBD.GridSearch答案:A、B、C解析:PI、EI、UCB均为经典采集函数。27.在图像分类中,使用RandAugment相比AutoAugment优势有:A.无需单独搜索策略B.减少验证集过拟合风险C.增强策略更丰富D.计算开销更低答案:A、B、D解析:RandAugment随机组合,无需搜索;策略空间小,验证集过拟合低;计算省。28.若使用LabelSmoothing,则:A.将硬标签转为软标签B.可提升模型校准度C.降低过拟合D.增加训练集大小答案:A、B、C解析:LabelSmoothing不改变样本量。29.关于K-means++初始化,正确的是:A.降低聚类中心间最小距离期望B.提高收敛速度C.保证全局最优D.时间复杂度与K-means相同答案:A、B解析:K-means++为概率初始化,不保证全局最优;复杂度同阶。30.在梯度提升树中,若使用Newton提升,每棵树拟合:A.残差B.负梯度C.Hessian加权残差D.一阶梯度与二阶梯度组合答案:C、D解析:Newton提升利用一阶g与二阶h,树拟合-h⁻¹g,即Hessian加权残差。三、计算题(共30分)31.(8分)给定训练集{(x_i,y_i)},x_i∈ℝᵈ,y_i∈{-1,1}。采用软间隔SVM,目标函数min½‖w‖²+C∑ξ_i,s.t.y_i(w·x_i+b)≥1-ξ_i,ξ_i≥0。已知最优解w=∑α_iy_ix_i,其中α_i∈[0,C]。现对偶目标为W(α)=∑α_i-½∑∑α_iα_jy_iy_jx_i·x_j。若仅有一个支持向量x_s满足α_s=C且0<ξ_s<1,求该点在原始问题中的几何间隔γ_s,用ξ_s表示。答案:由KKT条件,α_s=C⇒y_s(w·x_s+b)=1-ξ_s。几何间隔定义为γ_s=y_s(w·x_s+b)/‖w‖。代入得γ_s=(1-ξ_s)/‖w‖。又ξ_s<1⇒γ_s>0,即点仍在正确侧但穿透margin。故γ_s=(1-ξ_s)/√(∑_{i,j}α_iα_jy_iy_jx_i·x_j)。32.(10分)某GBDT回归任务,损失L(y,F)=½(y-F)²。第m轮时,当前模型F_{m-1}(x),残差r_i=y_i-F_{m-1}(x_i)。现拟合回归树h_m(x),叶节点区域为R_{mj},j=1…J。(1)写出叶节点最优输出值γ_{mj}的闭式解。(2)若采用学习率η,给出F_m(x)更新公式。(3)若改用绝对损失L(y,F)=|y-F|,求γ_{mj}。答案:(1)对平方损失,叶节点最优输出为区域内残差均值:γ_{mj}=mean_{x_i∈R_{mj}}r_i。(2)F_m(x)=F_{m-1}(x)+η∑_jγ_{mj}I(x∈R_{mj})。(3)对绝对损失,节点输出为残差中位数:γ_{mj}=median_{x_i∈R_{mj}}r_i。33.(12分)某二分类神经网络输出a=σ(z),z=w·h+b,h为隐层ReLU输出。训练集含N个样本,类别先验π_+=0.1。采用加权交叉熵L=-∑[βyloga+(1-y)log(1-a)],其中β>1。(1)推导∂L/∂w的表达式。(2)若β=1/π_+=10,证明该权重使正类对总损失的贡献期望等于负类。(3)若将β设为动态,令β_t=1/(π_++ε·t),ε=0.01,说明其效果。答案:(1)令δ=a-y,则∂L/∂z=βy(a-1)+(1-y)a。由链式法则,∂L/∂w=∂L/∂z·h。(2)正类贡献期望E_{y=1}[βloga]=βπ_+E[loga|y=1]=10·0.1·E[loga|y=1]=E[loga|y=1]。负类贡献E_{y=0}[log(1-a)]=0.9E[log(1-a)|y=0]。当a分布对称且校准,两者绝对值相等,故总期望相等。(3)随t增大,β_t递减,逐步降低正类权重,使模型后期更关注难分负样本,缓解初始过度强调正类导致的假阳性。四、综合应用题(共30分)34.(15分)某医疗影像公司需构建肺结节良恶性分类器。数据:•训练集:CT切片100k张,分辨率512×512,阳性率2%。•标注噪声:5%阳性被误标为阴性。•硬件:单卡RTX409024GB。•指标:验证集AUC>0.95,召回>0.92,平均单张推断<50ms。任务:(1)设计数据管道与增强策略,说明如何清洗噪声标签。(2)选择骨干网络并给出压缩方案,满足显存与速度约束。(3)写出训练细节:损失、采样、优化器、调度。(4)给出线上推断加速方案。答案:(1)数据管道:a.采用DICOM自动窗宽窗位(-1000,400)HU归一化,重采样至1mm×1mm×1mm。b.切片级去噪:用非局部均值滤除条纹伪影。c.标签清洗:①训练小ResNet-18,10折交叉预测,置信度<0.3的阴性样本人工复核;②采用Co-teaching,每epoch交换小批量,损失差>0.5的样本重标。d.增强:RandAugment(旋转±15°,缩放0.9-1.1,亮度±0.1,对比度±0.1),Mixupα=0.2,随机裁切384×384。(2)骨干网络:EfficientNet-B2,输入384×384,顶层加SE注意力;显存峰值20GB。压缩:a.知识蒸馏:教师EfficientNet-B4,学生B2,温度T=4,蒸馏损失权重0.5。b.结构化剪枝:基于BNγ系数,剪30%通道,微调5epoch,精度降<0.3%。(3)训练:a.损失:加权FocalLoss+LabelSmoothing(ε=0.05),α=0.25,γ=2,权重β=1/π_+=50。b.采样:每epoch动态采样,保证批内正样本占比20%,使用重复因子采样。c.优化器:Ranger(Lookahead+RectifiedAdam),lr=1e-3,weightdecay=1e-4。d.调度:Cosine退火+Warmup5epoch,最大epoch30,早停patience=5。(4)推断加速:a.TensorRTFP16,batch=8,融合conv-bn-relu,kernel自动调优。b.多尺度融合:缓存384×384与256×256分支,低置信度时走高分支。c.模型分片:将SE模块异步执行,隐藏IO延迟。d.最终单张平均耗时38ms,A

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论