2025年人工智能(计算机视觉)体系认证真题试卷及答案_第1页
2025年人工智能(计算机视觉)体系认证真题试卷及答案_第2页
2025年人工智能(计算机视觉)体系认证真题试卷及答案_第3页
2025年人工智能(计算机视觉)体系认证真题试卷及答案_第4页
2025年人工智能(计算机视觉)体系认证真题试卷及答案_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2025年人工智能(计算机视觉)体系认证练习题试卷及答案一、单项选择题(每题2分,共20分)1.在YOLOv8中,若输入图像尺寸为640×640,网络下采样倍数为32,则最终特征图的空间分辨率是A.10×10  B.20×20  C.40×40  D.80×80答案:B解析:640÷32=20,故特征图为20×20。2.VisionTransformer(ViT)在ImageNet1k上首次达到90.45%Top1准确率时,所采用的预训练策略是A.自监督对比学习  B.有监督大规模预训练  C.掩码图像建模  D.对抗训练答案:C解析:2023年MAE(MaskedAutoencoders)将ViTB推向90.45%,属于掩码图像建模范式。3.在CenterNet中,若高斯核半径公式为r=⌊(w+h)/6⌋,当目标框w=60、h=36时,半径为A.15  B.16  C.17  D.18答案:B解析:(60+36)/6=16,向下取整得16。4.下列关于FPN的叙述,错误的是A.侧向连接使用1×1卷积降维  B.自顶向下路径进行上采样  C.最终每层独立预测  D.仅用于两阶段检测器答案:D解析:FPN同样被SSD、YOLO等单阶段检测器采用。5.在DeepSort中,用于外观特征提取的CNN主干是A.OSNet  B.ResNet50Market  C.ShuffleNet  D.EfficientNetB0答案:B解析:DeepSort官方模型采用在Market1501上预训练的ResNet50。6.若使用RandAugment对图像做增强,默认幅度M=9,则“ShearX”操作的最大像素偏移量为A.0.1×255  B.0.3×255  C.0.5×255  D.0.9×255答案:B解析:RandAugment幅度9对应0.3倍像素范围。7.在TensorRT8.6中,将PyTorch的Hardswish转为引擎时,最佳实现方式是A.直接映射到IActivationLayer::kHARD_SWISH  B.拆分成Clip+Mul+Div  C.使用Plugin  D.使用CUDAkernel手写答案:A解析:TensorRT8.6原生支持Hardswish,可直接映射。8.当使用MixedPrecision训练时,下列哪项最能抑制梯度下溢A.Lossscaling  B.Gradientclipping  C.Warmup  D.EMA答案:A解析:Lossscaling将损失乘以比例因子,防止fp16下溢。9.在OpenVINO2024.0中,若模型包含“Detectron2”自定义算子,应优先A.使用ModelOptimizer的extensions参数  B.转为ONNX再转IR  C.直接调用InferenceEngine  D.重写为OpenCVDNN答案:A解析:自定义算子需通过extensions插件注册。10.当训练MaskRCNN时,若mask分支采用28×28分辨率,而目标实际mask为512×512,则训练阶段采用A.最近邻下采样  B.双线性下采样  C.区域插值ROIAlign  D.区域插值+最近邻答案:C解析:ROIAlign将GTmask采样到28×28,保持浮点坐标对齐。二、多项选择题(每题3分,共15分,多选少选均不得分)11.下列哪些技术可直接提升小目标检测召回率A.增大输入分辨率  B.使用更高倍数的FPN  C.引入AnchorFree  D.采用SIoU损失  E.增加训练epoch答案:ABC解析:增大分辨率、更高层FPN、AnchorFree均改善小目标;SIoU主要优化定位精度;单纯增加epoch无针对性。12.关于VisionTransformer的注意力计算复杂度,正确的是A.与序列长度n呈平方关系  B.使用Linformer后可降为O(n)  C.Performer使用随机特征映射  D.SwinTransformer将复杂度限制在窗口内  E.CosFormer基于多项式逼近答案:ABCD解析:CosFormer基于余弦重参数,而非多项式。13.在模型量化中,属于PTQ(PostTrainingQuantization)的方法有A.TensorRTINT8校准  B.ONNXRuntimeQDQ  C.QAT微调  D.AdaRound  E.DFQ答案:ABDE解析:QAT需重训练,不属于PTQ。14.下列哪些损失函数可同时用于分类与定位A.GIoU  B.FocalLoss  C.VarifocalLoss  D.PolyLoss  E.DIoU答案:CD解析:Varifocal与Poly同时加权分类与定位质量;GIoU/DIoU仅定位;Focal仅分类。15.在边缘设备部署时,为了降低内存峰值,可采取A.激活检查点  B.权重量化  C.权重量化+激活量化  D.使用GradientCheckpointing训练  E.采用NCHW16格式答案:ABC解析:GradientCheckpointing仅训练阶段省内存;NCHW16为计算格式,不降低峰值。三、填空题(每空2分,共20分)16.在DeformableDETR中,若编码器层数为6,每层参考点更新方式为________,则多尺度特征层数默认取________。答案:加性偏移  4解析:参考点通过线性层预测Δx,Δy,加性更新;多尺度为C3C6共4层。17.当使用Mosaic增强时,若子图分辨率均为640×640,拼接后最小边长为________,此时若保持原图比例,缩放因子应≤________。答案:640  0.5解析:四张图拼接后最小边640;缩放0.5可保证最终≥640。18.在PyTorch2.1中,开启pile(backend="inductor")后,默认模式为________,其优化级别由________参数控制。答案:default  mode解析:inductor默认mode=”default”,可通过mode切换。19.若采用CosineAnnealing重启式学习率,初始lr=0.1,T_0=10,T_mult=2,则第3个周期结束时总epoch为________,此时lr=________。答案:70  0.00625解析:周期长度10+20+40=70;cosine终点为0.1×0.5^(3)=0.00625。20.在TensorBoard中,若要记录模型计算图,需调用writer.add_graph(model,________),其中输入张量要求________。答案:dummy_input  requires_grad=False解析:dummy_input无需梯度,避免记录反向节点。四、判断改错题(每题2分,共10分,先判对错,若错则划线改正)21.SwinTransformer的窗口注意力在反向传播时,窗口大小必须整除特征图尺寸。答案:错  “必须整除”改为“无需整除,使用mask即可”。22.在KnowledgeDistillation中,温度τ越大,软标签分布越尖锐。答案:错  “尖锐”改为“平滑”。23.使用AutoAugment时,若数据集为CIFAR10,则默认策略与ImageNet相同。答案:错  “相同”改为“不同,CIFAR10采用轻量级子策略”。24.当使用SyncBN时,梯度同步与统计量同步均发生在反向传播阶段。答案:错  “均”改为“统计量同步在前向,梯度同步在反向”。25.在ONNX中,若模型包含“DynamicAxes”,则TensorRT无法解析。答案:错  “无法”改为“可以,通过explicitbatch模式”。五、简答题(每题10分,共30分)26.描述YOLOv8中“DFL”(DistributionFocalLoss)的实现细节,并说明其对边界框回归的改进。答案:DFL将边界框坐标离散化为16个区间,用softmax预测各区间的概率,再求期望得到连续坐标。损失采用Focal形式,聚焦难样本。相比L1/L2,DFL显式建模分布,缓解极端宽高比下的梯度消失,提升0.8AP。27.解释VisionTransformer中“ClassToken”与“GlobalAveragePooling”两种分类头的差异,并给出在CIFAR100上的实验对比结论。答案:ClassToken通过额外可学习向量聚合全局信息,GAP直接对patchtoken均值池化。实验表明,在CIFAR100上,ClassToken比GAP高1.3%,归因于token间显式交互;但GAP参数量少0.12M,推理快5%。28.列举三种解决长尾分布的采样策略,并比较其GPU内存占用。答案:(1)类别平衡采样:每类样本数相同,内存占用最低,与最少类一致;(2)平方根采样:按√n_i采样,内存中等;(3)逆向频率采样:按1/n_i加权,内存最高,需缓存大量重复样本。实测ImageNetLT上,策略3内存为策略1的2.7倍。六、计算与推导题(共25分)29.(10分)给定一个3×3卷积,输入通道C_in=64,输出通道C_out=128,groups=32,dilation=2,padding=2,输入特征图H=W=40,求:(1)参数量;(2)理论FLOPs;(3)等效感受野。答案:(1)参数量=3×3×(64/32)×128×32=3×3×2×128×32=73728;(2)FLOPs=2×H×W×C_out×K×K×(C_in/g)=2×40×40×128×9×2=73728000;(3)等效感受野=1+(31)×2=5。30.(15分)在DETR中,假设编码器输出memory∈R^{n×d},n=900,d=256,解码器查询q∈R^{100×d},采用单头注意力,计算:(1)注意力权重矩阵形状;(2)权重矩阵显存占用(fp16);(3)若采用Linformer将键值投影到k=64,则显存节省比例。答案:(1)权重形状100×900;(2)100×900×2Byte=180kB;(3)原显存:900×256×2=460.8kB,投影后(900+100)×64×2=128kB,节省比例=(460.8128)/460.8≈72.2%。七、综合设计题(共30分)31.某城市需在边缘盒子部署人群密度估计系统,硬件为JetsonOrinNano8GB,摄像头1080p@30fps,要求:(1)选择模型并说明理由;(2)给出量化与剪枝方案;(3)设计前后处理流水线,使端到端延迟<100ms。答案:(1)选用CSRNetLite,原因:仅0.8M参数,MAE8.5onShanghaiTechA,支持输入任意尺寸;(2)采用PTQINT8+通道剪枝30%,使用TensorRT8.6,校准集200张,AdaRound提升0.3MAE;(3)流水线: •前处理:V4L2mmap零拷贝→CUDA预处理(resize+normalize)耗时8ms; •推理:INT8引擎单次16ms; •后处理:GPU并行密度图积分+伪彩色叠加12ms; •总延迟36ms<100ms,余量64ms用于多路复用。八、代码阅读与补全(共20分)32.阅读下列PyTorch代码并补全缺失部分,使实现“SoftNMS”的GPU加速版本:```importtorchdefsoft_nms(boxes,scores,sigma=0.5,thresh=0.001):"""boxes:Tensor[N,4](x1,y1,x2,y2)scores:Tensor[N]"""keep=[]_,idx=scores.sort(descending=True)boxes=boxes[idx]scores=scores[idx]whileboxes.numel()>0:top=boxes[0]keep.append(idx[0].item())iou=box_iou(top.unsqueeze(0),boxes).squeeze(0)weight=torch.exp((iouiou)/sigma)缺失行1scores=weight缺失行2keep_mask=scores>thresh缺失行3idx=idx[keep_mask]boxes=boxes[keep_mask]scores=scores[keep_mask]returntorch.tensor(keep,dtype=torch.long,device=boxes.device)```答案:已补全三行注释处

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论