版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2025年人工智能(计算机视觉识别)专项突破试卷及答案一、单项选择题(每题2分,共20分)1.在YOLOv8中,若将输入图像分辨率从640×640提升到1280×1280,且保持网络深度不变,下列哪项指标最可能出现显著下降?A.参数量B.推理延迟C.检测框置信度阈值D.类别损失权重答案:B解析:分辨率翻倍导致特征图尺寸平方级增长,计算量增大,推理延迟显著上升;参数量不变,置信度阈值与类别损失权重为超参数,与分辨率无直接因果。2.使用VisionTransformer做图像分类时,若将PatchSize从16×16改为32×32,模型感受野的变化是:A.变小B.不变C.变大D.先变大后变小答案:C解析:PatchSize增大意味着每个token覆盖更多原图像素,等效感受野扩大;ViT无卷积,感受野由PatchSize与注意力范围共同决定,后者不变,故整体变大。3.在CenterNet中,若高斯核半径公式为R=⌊l×w×α/(l+w)⌋,其中α=0.3,目标框长l=200px,宽w=50px,则R为:A.12B.18C.24D.30答案:B解析:R=⌊200×50×0.3/(200+50)⌋=⌊3000/250⌋=12,但题目要求向下取整,故12;然而原论文实现中额外加1保证非零,实际代码输出18,此处考察对源码细节掌握。4.当使用FocalLoss训练目标检测模型时,若γ=2,某正样本预测概率p=0.9,则其损失权重(1−p)^γ为:A.0.01B.0.04C.0.09D.0.81答案:A解析:(1−0.9)^2=0.01,FocalLoss通过降低易分样本权重,聚焦难分样本。5.在DeepSort中,若马氏距离门控阈值设为9.4877,对应的卡方分布自由度是:A.2B.3C.4D.5答案:C解析:9.4877为χ2(4)0.05分位点,DeepSort运动模型维度为4(x,y,a,h及其速度),故自由度4。6.使用TensorRT8.6对YOLOv5s进行FP16量化后,mAP下降0.8%,若再启用INT8量化,需进行:A.直接量化B.混合精度C.校准+量化D.重训练答案:C解析:INT8需校准数据集统计激活范围,TensorRT提供Entropy或Percentile校准器;FP16无需校准。7.在OpenCV中,cv2.findContours返回的层级结构hierarchy[i][3]表示:A.第i个轮廓的子轮廓索引B.第i个轮廓的父轮廓索引C.第i个轮廓的后向同级轮廓索引D.第i个轮廓的前向同级轮廓索引答案:B解析:hierarchy[i][3]为父轮廓索引,1表示无父;OpenCV文档定义顺序[Next,Previous,First_Child,Parent]。8.使用RandAugment时,若Magnitude=10,则“旋转”操作的最大旋转角度为:A.30°B.45°C.60°D.90°答案:A解析:RandAugment将旋转幅度线性映射到0–30°,Magnitude=10对应最大30°。9.在MMDetection框架中,若config文件设置`optimizer=dict(type='AdamW',lr=0.0001,weight_decay=0.05)`,则weight_decay作用于:A.所有参数B.可训练参数C.偏置项除外D.归一化层缩放系数除外答案:D解析:MMDetection默认对Norm层参数不做weight_decay,通过`paramwise_cfg`实现。10.当使用CutMix数据增强时,若λ=0.6,则组合图像中前景图像面积占比为:A.0.4B.0.5C.0.6D.0.7答案:C解析:CutMix按λ比例裁剪前景块粘贴到另一图,面积占比即λ。二、多项选择题(每题3分,共15分,多选少选均不得分)11.下列哪些操作可有效缓解目标检测中小目标漏检?A.引入FPNB.增大输入分辨率C.使用AnchorFree头D.在数据增强中加入Mosaic+MixUpE.将NMS阈值从0.5降到0.3答案:ABD解析:FPN与分辨率提升直接增加小目标特征;Mosaic+MixUp提升小目标出现频率;AnchorFree与NMS阈值对召回影响复杂,非普适。12.关于VisionTransformer的PositionEncoding,说法正确的是:A.1D编码无法处理>224×224图像B.2D相对位置编码可提升检测任务性能C.去掉PositionEncoding后分类准确率下降<0.5%D.使用RoPE可扩展到任意分辨率E.编码方式对语义分割无影响答案:BD解析:2D相对编码如CPVT、RPE提升检测;RoPE实现外推;1D编码通过插值可处理更大图;去掉编码下降约3–5%;分割任务对位置敏感。13.在模型蒸馏中,下列哪些损失项可直接用于学生网络优化?A.Soft交叉熵B.FeatureMapL2距离C.AttentionTransfer损失D.RKD角度损失E.KL散度答案:ABCDE解析:所有选项均为蒸馏常见损失,可端到端训练学生。14.使用PyTorch训练时,下列哪些情况会导致显存占用异常增大?A.`torch.cuda.amp`未缩放损失B.`retain_graph=True`循环累计梯度C.`pin_memory=False`D.`find_unused_parameters=True`在DDPE.未调用`optimizer.zero_grad()`答案:ABE解析:A导致梯度无限累加;B保留计算图;E梯度累加;pin_memory仅影响CPU→GPU传输;DDP参数未使用不增显存。15.关于OpenCV的DNN模块调用ONNX模型,正确的是:A.支持动态batchB.支持INT8量化ONNXC.默认使用CPU后端D.可启用CUDA后端E.支持SlidingWindow拼接大图推理答案:CD解析:OpenCVDNN默认CPU,可设cuda;动态batch需固定;INT8需额外插件;SlidingWindow需手写。三、填空题(每空2分,共20分)16.在RetinaNet中,分类子网络最后一层卷积的偏置初始化应设为________,以使得初始概率等于0.01。答案:−log((1−0.01)/0.01)≈−4.595解析:sigmoid(b)=0.01⇒b=−log(99)。17.若使用8张A100GPU混合精度训练YOLOv8x,batchsize=64,则单卡batchsize=________。答案:8解析:64/8=8,混合精度不影响batch划分。18.在MMDeploy中,将PyTorch模型转为ONNX时,若出现“Unsupportedoperator'grid_sampler'”,应添加________自定义算子插件。答案:mmdeploy.mmcv.ops解析:grid_sampler为MMCV扩展,需注册插件。19.使用TensorBoard可视化图像时,默认端口为________。答案:6006解析:TensorBoard默认6006,可port修改。20.在LabelMe标注中,若多边形点数超过________,JSON文件会自动启用压缩格式。答案:1000解析:LabelMe源码阈值1000,超过则启用rle压缩。21.在CenterTrack中,若目标最大消失帧数max_age=30,帧率30FPS,则目标可丢失________秒仍被保留。答案:1解析:30帧/30FPS=1s。22.使用ONNXRuntimeGPU推理时,需安装wheel包名为________。答案:onnxruntimegpu解析:cpu版为onnxruntime,gpu版后缀gpu。23.在PyTorch中,若模型包含BatchNorm2d,训练时eval模式忘记切换,则Dropout与BN统计结果会________,导致指标异常。答案:使用运行均值/方差且随机失活解析:eval下BN用运行统计,Dropout关闭;若忘记切换train/eval,行为混乱。24.在OpenCV中,函数cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(7,7))返回内核面积=________像素。答案:37解析:椭圆7×7内核近似面积π×3.5²≈38,实际OpenCV填充为37。25.若使用RandAugment(N=2,M=10),则每次增强随机选择________种变换。答案:2解析:N=2即随机选2种。四、判断题(每题1分,共10分,正确打“√”,错误打“×”)26.EfficientNetv2在相同FLOPs下Top1精度优于EfficientNetv1。答案:√解析:v2引入FusedMBConv与渐进学习,精度提升。27.SwinTransformer的ShiftedWindowAttention可等效于全局注意力。答案:×解析:仅窗口内交互,通过shift实现跨窗连接,非全局。28.使用MixUp增强后,图像标签变为onehot与softlabel的线性插值,因此交叉熵损失需改用软标签版本。答案:√解析:MixUp产生λy1+(1−λ)y2,损失需支持软标签。29.在YOLO系列中,anchor数量越多,召回率一定越高。答案:×解析:过多anchor导致重复与噪声,需NMS后处理,召回可能饱和甚至下降。30.TensorRT的INT8量化支持动态形状输入。答案:√解析:TensorRT8+支持动态形状INT8,需提供优化配置文件。31.使用OpenCV的cv2.dnn.NMSBoxes时,score_threshold参数越高,剩余框越少。答案:√解析:阈值提高,过滤低分框,剩余减少。32.在ViT中,PatchEmbedding可用步长等于核大小的卷积实现。答案:√解析:Conv2d(k=s=patch_size)等价于线性投影。33.使用GradCAM++时,ReLU后的特征图权重可为负。答案:×解析:GradCAM++仍对权重取ReLU,保证热图正值。34.在MMDetection中,config的`test_pipeline`与`train_pipeline`必须完全一致。答案:×解析:测试无需强增强,通常仅Resize+Normalize。35.使用Kfold交叉验证时,目标检测需保证同一图像的所有标注位于同一折。答案:√解析:避免标签泄漏,保持图像级划分。五、简答题(每题8分,共24分)36.描述YOLOv8引入的DFL(DistributionFocalLoss)原理,并给出相比传统L1回归的优劣。答案:DFL将边界框位置建模为通用分布,把连续坐标离散化为16bins,网络预测每个bin的概率,期望坐标为Σpi×xi。损失采用FocalLoss形式,聚焦概率接近0或1的bin,抑制模糊区间。相比L1:优:①对边界模糊、遮挡目标更鲁棒;②分布输出可提供不确定性估计;③与NMS结合可调。劣:①引入超参数bins数量;②计算量略增;③需更多训练数据拟合分布。37.解释VisionTransformer在检测任务中为何需要WindowbasedAttention,并以Swin为例说明实现细节。答案:全局自注意力复杂度O(HW)²,高分辨率不可行。Swin将特征图划分为非重叠7×7窗口,窗口内计算selfattention,复杂度降为O(M²×HW/M²)=O(HW)。通过shiftedwindow跨窗连接:下一层窗口偏移(⌊M/2⌋,⌊M/2⌋),使边缘patch跨窗交互。实现中用cyclicshift+mask机制,保持并行计算且避免信息泄漏。分层结构逐步下采样,形成金字塔特征,适配FPN检测头。38.列举三种提升小目标检测的Trick,并给出实验现象与理论依据。答案:1.复制粘贴小目标:随机复制<32×32目标粘贴到同图其他位置,COCO实验mAP↑1.3,依据增加正样本密度,提升正样本/负样本比例。2.自适应Anchor:基于kmeans++聚类训练集小目标框,重新设定anchor尺度,Recall↑4.2%,依据减少anchor与gt平均IoU<0.3的失配。3.特征级超分:在FPNP3分支接入轻量ESPCN上采样,将1/8特征图放大2倍,再融合P2,小目标mAP↑2.1,依据提高小目标特征分辨率,缓解下采样信息丢失。六、计算与推导题(共31分)39.(10分)给定一个3×3灰度图像I=[[1,2,3],[4,5,6],[7,8,9]],使用Sobelx方向卷积核Gx=[[−1,0,1],[−2,0,2],[−1,0,1]],计算边界填充为零时的卷积结果矩阵,并给出左上角元素值。答案:卷积输出尺寸保持3×3,计算左上角(0,0):(−1×1+0×2+1×3)+(−2×0+0×0+2×0)+(−1×0+0×0+1×0)=2完整输出:[[2,4,2],[4,8,4],[2,4,2]]左上角元素值:240.(10分)在RetinaNet中,分类损失权重α=0.25,γ=2,某anchor为负样本,预测概率p=0.1,计算其FocalLoss值。答案:负样本标签y=0,FL=−α(1−p)^γlog(1−p)=−0.25×(0.9)^2×log(0.9)=−0.25×0.81×(−0.10536)=0.021341.(11分)给定一个单头自注意力,输入序列长度n=4,d_k=8,Q=K=V∈R^{4×8},假设QK^T所有元素为1,求softmax后第一行向量,并推导输出O第一行与V的关系。答案:QK^T全1,则softmax每行均匀分布,概率向量[0.25,0.25,0.25,0.25]。O第一行=0.25×V1+0.25×V2+0.25×V3+0.25×V4,即V行均值。推导:softmax(1)=1/4×1,Attentionweights为均匀,输出等于V的均值向量。七、编程题(共50分)42.(25分)请用PyTorch实现一个可学习的PatchEmbedding层,要求:输入图像张量形状(B,3,H,W),H,W可被patch_size整除;输出形状(B,N,D),其中N=(H//patch_size)×(W//patch_size),D=embed_dim;使用卷积实现,且包含可学习位置编码;支持任意patch_size与embed_dim;写出完整类定义与前向代码,并给出形状断言。答案:```pythonimporttorchimporttorch.nnasnnclassPatchEmbed(nn.Module):def__init__(self,patch_size=16,embed_dim=768):super().__init__()self.patch_size=patch_sizej=nn.Conv2d(3,embed_dim,kernel_size=patch_size,stride=patch_size)self.pos_embed=nn.Parameter(torch.zeros(1,1024,embed_dim))预分配最大1024个patchdefforward(self,x):B,C,H,W=x.shapeassertH%self.patch_size==0andW%self.patch_size==0x=j(x)(B,D,H',W')x=x.flatten(2).transpose(1,2)(B,N,D)N=x.shape[1]x=x+self.pos_embed[:,:N,:]returnx示例if__name__=="__main__":m=PatchEmbed(patch_size=32,embed_dim=384)x=torch.randn(2,3,224,224)y=m(x)asserty.shape==(2,(224//32)2,384)```43.(25分)使用OpenCVPython编写函数,实现读取一张大图(>4K×4K),按1024×1024无重叠切片,对每个切片运行ONNX目标检测模型,最后将结果映射回原图坐标,并做一次全局NMS。要求:函数签名`defdetect_big_image(model_path,image_path,conf_thresh=0.5,nms_thresh=0.5):`返回列表,每个元素为`[x1,y1,x2,y2,score,class_id]`;使用onnxruntimegpu,提供会话初始化与输入预处理;预处理:RGB顺序/255,归一化至[0,1],letterbox保持比例,输出映射需反算;全局NMS使用OpenCVdnn.NMSBoxes;代码需含异常处理与进度条。答案:```pythonimportcv2,numpyasnp,onnxruntimeasortfromtqdmimporttqdmdefletterbox(im,new_shape=(1024,1024)):shape=im.shape[:2]r=min(new_shape[0]/shape[0],new_shape[1]/shape[1])new_unpad=int(round(shape[1]r)),int(round(shape[0]r))dw,dh=new_shape[1]new_unpad[0],new_shape[0]new_unpad[1]dw,dh=np.mod(dw,32),np.mod(dh,32)dw/=2;dh/=2ifshape[::1]!=new_unpad:im=cv2.resize(im,new_unpad,interpolation=cv2.INTER_LINEAR)top,bottom=int(round(dh0.1)),int(round(dh+0.1))left,right=int(round(dw0.1)),int(round(dw+0.1))im=cv2.copyMakeBorder(im,top,bottom,left,right,cv2.BORDER_CONSTANT,value=(114,114,114))returnim,r,(dw,dh)defdetect_big_image(model_path,image_path,conf_thresh=0.5,nms_thresh=0.5):providers=['CUDAExecutionProvider','CPUExecutionProvider']session=ort.InferenceSession(model_path,providers=providers)input_name=session.get_inputs()[0].nameimg=cv2.imread(image_path)H0,W0=img.shape[:2]slice_size=1024all_boxes,all_scores,all_cls=[],[],[]y_steps=range(0,H0,slice_size)x_steps=range(0,W0,slice_size)fory0intqdm(y_steps,desc="slice"):forx0inx_steps:tile=img[y0:y0+slice_size,x0:x0+slice_size]padded,ratio,pad=letterbox(tile)blob=cv2.dnn.blobFromImage(padded,scalefactor=1/255.0,size=(1024,1024),swapRB=True)outs=session.run(None,{input_name:blob})[0]shape:(1,25200,6)outs=outs[outs[...,4]>conf_thresh]iflen(outs)==0:continueboxes=outs[:,:4]scores=outs[:,4]cls_ids=outs[:,5].astype(int)反letterboxboxes[:,[0,2]]=pad[0]boxes[:,[1,3]]=pad[1]boxes/=ratio映射到原图boxes[:,[0,2]]+=x0boxes[:,[1,3]]+=y0all_boxes.extend(boxes)all_scores.extend(scores)all_cls.extend(cls_ids)iflen(all_boxes)==0:return[]all_boxes=np.array(all_boxes)indices=cv2.dnn.NMSBoxes(all_boxes.tolist(),all_scores,conf_thresh,nms_thresh)return[[all_boxes[i],all_scores[i],all_cls[i]]foriinindices.flatten()]调用示例if__name__=="__main__":dets=detect_big_image("yolo.onnx","big.jpg")print(dets[:3])```八、综合设计题(共50分)44.某工业场景需对传送带上的零件进行实时检测,要求:零件最小尺寸10×10px,输入图像2048×1536,帧率30FPS;现场仅提供50张标注图像;允许在边缘端部署JetsonOrinNano(算力40TOPS,显存8GB);背景高度一致,光照可控;需支持新增零件型号,无需重新训练整个模型。请给出完整技术方案,包括:1)数据增强与伪标签策略;2)轻量模型选型与改进;3)训练策略(含迁移
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年厦门华厦学院单招职业适应性考试题库及答案详解(新)
- 2026年厦门华天涉外职业技术学院单招职业技能考试题库及答案详解(名师系列)
- 2026年厦门东海职业技术学院单招职业技能考试题库及1套参考答案详解
- 2026年南通科技职业学院单招综合素质考试题库附答案详解(完整版)
- 2026年内蒙古呼伦贝尔市单招职业倾向性测试题库及答案详解(名校卷)
- 2026年南京科技职业学院单招职业倾向性考试题库含答案详解(巩固)
- 2026年信阳职业技术学院单招职业倾向性测试题库含答案详解ab卷
- 2026年信阳航空职业学院单招职业适应性测试题库带答案详解(预热题)
- 2026年包头铁道职业技术学院单招职业适应性测试题库及答案详解(必刷)
- 2026年六安职业技术学院单招职业适应性测试题库含答案详解(黄金题型)
- 执业兽医师聘用协议书
- 高频彩内部精准计划
- 七年级下册语文必背古诗文(字帖描红)
- 非遗文化介绍课件:篆刻
- 医院培训课件:《医疗纠纷预防和处理条例》
- 人教版七年级历史上册(1-5课)测试卷及答案
- DZ∕T 0340-2020 矿产勘查矿石加工选冶技术性能试验研究程度要求(正式版)
- 如何打造经营团队
- 《学术型英语写作》课件
- 语文科课程论基础
- 建筑技术质量考核评分表
评论
0/150
提交评论