人工智能深度学习技术练习(习题卷6)_第1页
人工智能深度学习技术练习(习题卷6)_第2页
人工智能深度学习技术练习(习题卷6)_第3页
人工智能深度学习技术练习(习题卷6)_第4页
人工智能深度学习技术练习(习题卷6)_第5页
已阅读5页,还剩54页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

试卷科目:人工智能深度学习技术练习人工智能深度学习技术练习(习题卷6)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度学习技术练习第1部分:单项选择题,共132题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.语句b=tf.ones_like(a)是A)将b节点内容用a替换B)b对应张量维度和A相同,值为1C)b对应张量维度和A相同,值为2D)b对应张量维度和不同答案:B解析:[单选题]2.A=2133−21,B=12−2−1−30,求AB()。A)87−6−30−35−7−9B)8−7−6−30−35−7−9C)8−7−6−30−357−9D)8−7−6−3035−7−9答案:B解析:难易程度:易题型:[单选题]3.A=2133−21,B=12−2−1−30,求BA()。A)9438B)−9437C)−9438D)9−4−38答案:C解析:难易程度:易题型:[单选题]4.ActivationfunctionRectifiedLinearUnit即激活函数ReLU,它的作用是()A)引用了无效的单元格地址B)过滤无效神经元C)不是激发函数D)将正数保留,将负数置0答案:D解析:[单选题]5.在AlexNet等典型的卷积神经网络中,随着网络的深度增加,通常有()A)每层的通道的高度和宽度减少,通道数增加。B)每层的通道的高度和宽度增加,通道数增加。C)每层的通道的高度和宽度减少,通道数减少。D)每层的通道的高度和宽度增加,通道数减少。答案:A解析:[单选题]6.卷积中控制卷积核的参数是A)strideB)kerner_sizeC)in_channelsD)out_channels答案:B解析:[单选题]7.pytorch中数值一般是()类型A)intB)floatC)boolD)time答案:B解析:[单选题]8.从()、比较比对、逐渐逼近的循环过程就是建立数学模型A)测量B)校准C)回归D)监督答案:A解析:[单选题]9.JSON数据格式说法不正确的是()。A)一种轻量级的数据交换格式B)全称是JavaC)json.dumpsD)提高可读性答案:B解析:难易程度:易题型:[单选题]10.LSTM网络通过精妙的()将短期记忆与长期记忆结合起来,并且一定程度上解决了梯度消失的问题A)RNN控制B)前馈控制C)BP控制D)门控制答案:D解析:[单选题]11.在概率空间中,样本点的概率必须是:A)相等B)可以不等C)可以为0D)可以为1答案:A解析:[单选题]12.针对交叉熵,描述正确的是:A)二分类和多分类的损失函数相同B)交叉熵可以理解为信息量的累计值C)交叉熵只需要标签就可以进行计算D)交叉熵是回归的代价函数答案:B解析:[单选题]13.防止过拟合的方法可以使用正则化,正则化方法中不包括下面哪个方法()A)混合L1与L2正则化B)L1正则化C)L3正则化D)L2正则化答案:C解析:[单选题]14.什么是TensorFlow的核心的基本数据单元?A)张量B)向量C)纯量D)以上都不是答案:A解析:[单选题]15.训练模型最灵活的方式是:A)内置fitB)内置train_on_batchC)自定义训练循环D)内置compile答案:C解析:[单选题]16.对于以下线性运算的结果向量,如果要映射成概率结果,需要函数:A)tf.nn.softmaxB)tf.nn.dropoutC)tf.nn.maxpoolD)tf.nn.cov2d答案:A解析:[单选题]17.以下有关神经网络的描述,错误的是()A)model=SequentialOmodel.add(layers.InputLayer(input_shape=(1)))model.add(layers.Dense(5activation=sigmoid))model.add(layers.Dense(1.activation=sigmoid))上述代码创建的神经网络的可训练的参数有16个。B)当输入是负数时ReLU激活函数的值可以不为0。C)Sigmoid激活函数把负无穷到正无穷的输入规范化为0到1的输出。D)Softmax激活函数将元素为负无穷到正无穷的输入向量。转化为每个元素都在0到1的输出向量。并且各分量的和为1。答案:B解析:[单选题]18.不是Python对文件的打开模式的是()。A)?r?B)?+?C)?w?D)?c?答案:D解析:难易程度:易题型:[单选题]19.函数tanh值域范围是()A)+1和-1B)+0和-1C)+1和0D)+2和-2答案:A解析:[单选题]20.关于降维,下列说法错误的是()。A)降维后的数据集的维度将降维前少B)有效降维能减少冗余信息,提高模型精度和运行效率C)特征选择不会改变数据,仅从原有变量中找出主要变量D)特征提取从原有数据中提取主要成分,不会改变原有数据答案:D解析:难易程度:中题型:[单选题]21.在选择神经网络的深度时,下面哪些参数需要考虑?1神经网络的类型(如MLP,CNN)2输入数据3计算能力(硬件和软件能力决定)4学习速率5映射的输出函数A)1,2,4,5B)2,3,4,5C)都需要考虑D)1,3,4,5答案:C解析:[单选题]22.在keras中的fit函数参数validation_data:形式为(X,y)的tuple,是指定的验证集。此参数将覆盖()。A)sample_weightB)verboseC)class_weightD)validation_spilt答案:D解析:validation_data:形式为(X,y)的tuple,是指定的验证集。此参数将覆盖validation_spilt。[单选题]23.创建指定数量等差数组的命令是()。A)np.linspace()B)np.arrange()C)np.logspace()D)np.array()答案:A解析:难易程度:易题型:[单选题]24.假设有28个卷积核,那么卷积后提取的特征数量是()A)784B)567C)28D)14答案:C解析:[单选题]25.Tf的全局变量初始化语句是A)tf.global_variables_initializer()B)tf.variables_initializerC)sess.run(w.initializer)D)tf.initializer()答案:A解析:[单选题]26.独热编码即One-Hot编码,又称()。A)对数有效编码B)一位有效编码C)两位有效编码D)零位有效编码答案:B解析:独热编码即One-Hot编码,又称一位有效编码。[单选题]27.keras中Dropout函数包含在哪个库中?A)layerB)layersC)DenseD)model答案:B解析:keras.layers.Dropout(rate,noise_shape=None,seed=None)[单选题]28.在进入科学研究之前,第一步要对事物A)实验准备B)下定义C)思想准备D)预测答案:B解析:[单选题]29.不属于二元状态感知模型有()。A)与非门B)异或门C)与门D)逻辑门答案:D解析:难易程度:易题型:[单选题]30.Sigmoid函数的特点是()。A)急剧变化B)x=0时等于0.5C)最大值等于1D)不能用在神经网络中答案:B解析:难易程度:易题型:[单选题]31.Batch归一化步骤不包括A)求每个训练批次数据的均值B)求每个训练批次数据的方差C)使用求得的均值和方差对该批次的训练数据做归一化,获得0-1分布D)求每个训练批次的和答案:D解析:[单选题]32.假设你需要调整超参数来最小化代价函数(costfunction),会使用下列哪项技术?A)举搜索B)随机搜索C)Bayesian优化D)都可以答案:D解析:[单选题]33.pytorch中,LSTM是否处理截距的参数为A)input_sizeB)batch_firstC)biasD)hidden_size答案:C解析:[单选题]34.Tf读文件语句:key,value=reader.read(tf.train.string_input_producer(['cat.jpg']))语句中,key是A)key是关键词,value是Key的值B)key是文件打开符,value是整个文件数据读入。C)key是文件内部索引,value是key索引对应数据;D)key是文件打开符,value是Key的值答案:B解析:[单选题]35.使用飞桨神经网络学习模型中数据处理的第三个步骤()。A)数据导入B)数据集划分C)数据归一化处理D)数据形状变换答案:B解析:难易程度:易题型:[单选题]36.池化核ksize=[1,4,4,1]将图像A)缩小到1/2B)缩小到1/16C)扩大两倍D)扩大四倍答案:B解析:[单选题]37.pytorch梯度下降用不到的函数是A)stepB)backwardC)zero_gradD)fit答案:D解析:[单选题]38.RMSprop相比Momentum,可以选择更大的()A)损失函数B)学习率C)激活函数D)样本集答案:B解析:[单选题]39.梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?()A)用改良的网络结构比如LSTM和GRUsB)梯度裁剪C)DropoutD)所有方法都不行答案:B解析:[单选题]40.卷积神经网络中,全连接层中,需要修改权重,修改的依据是:A)梯度反向传播B)梯度正向传播C)与梯度无关D)与损失函数无关答案:A解析:[单选题]41.二分类和多分类直接说法正确的是A)使用相同的激活函数B)使用相同的代价函数公式C)二分类使用softmax激活,多分类使用sigmoid激活D)得到的结果都是概率形式答案:D解析:[单选题]42.常用的激活函数RELU,其常用调用语句为那一个()A)h_conv1=tf.nn.relu(conv_ret1)B)h_conv1=tf.nn.dropout(conv_ret1)C)h_conv1=tf.nn.lrn(conv_ret1)D)h_conv1=tf.nn.l2_loss(conv_ret1)答案:A解析:[单选题]43.多分类模型,一般使用()函数A)reluB)tanhC)sigmoidD)softmax答案:D解析:[单选题]44.可以比较两个单词是否有关联,可以使用A)rnnB)lstmC)向量内积D)embedding答案:C解析:[单选题]45.训练神经网络可以修改的参数有()。A)学习速率B)梯度下降参数C)回归参数D)RELU答案:A解析:难易程度:易题型:[单选题]46.Youarebuildingabinaryelassifierforrecognizingcucumbers(y=1)vs.watermelons(y=0).Whichoneoftheseactivationfunctionswouldyourecommendusingfortheoutoutlaver?A)ReLUB)LeakyReLuC)sigmoidD)tanh答案:C解析:[单选题]47.pytorch中随机失活使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:C解析:[单选题]48.pytorch构建模型最复杂灵活的方式为:A)继承nn.Module基类构建自定义模型B)使用nn.Sequential按层顺序构建模型C)继承nn.Module基类构建模型并辅助应用模型容器进行封装(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接处理答案:C解析:[单选题]49.Tf.subtract函数返回一个(),与x具有相同的类型A)TensorB)数组C)矢量D)范数答案:A解析:[单选题]50.如需要定义tf的常量X=tf.constant(2.0,shape=[1,2])语句结果是A)2B)[2.0,2.0]C)[[2.0,2.0]]D)[[2.0],[2.0]]答案:C解析:[单选题]51.下列哪一项属于特征学习算法(representationlearningalgorithm)?CA)K近邻算法B)随机森林C)神经网络D)都不属于答案:C解析:[单选题]52.keras.layers.Dropout(rate,noise_shape=None,seed=None)中rate的取值区间在()A)[-1,1]B)[1,2]C)[0,100]D)[0,1]答案:D解析:[单选题]53.一个数据集中,没有哪一种类型的数据集:A)测试集B)确认集C)验证集D)训练集答案:B解析:[单选题]54.keras.layers.MaxPooling2D()方法中,pool_size参数的默认值是()A)0B)1C)2D)无默认值答案:C解析:[单选题]55.池化效果层没有的属性是A)步长B)权重参数C)0填充D)池化核答案:B解析:[单选题]56.理论上激活效果最好的函数是:A)reluB)leaky-reluC)sigmoidD)tanh答案:B解析:[单选题]57.关于iloc的说法不正确的是()。A)既可以行索引,又可以列索引B)不能使用标签索引C)当传入的行索引位置或列索引位置为区间时,其为前闭后开区间D)可以接收Series答案:D解析:难易程度:中题型:[单选题]58.正常情况下卷积网络在多少层以后就很难优化A)11B)15C)22D)25答案:C解析:[单选题]59.下列函数不是控制坐标轴属性的是()。A)xlabelB)xlimC)xticksD)xkcd答案:D解析:难易程度:中题型:[单选题]60.Tf.nn.conv2d(a,B,C,d),其中被卷积数据是A)bB)aC)cD)d答案:B解析:[单选题]61.在感知机中(Perceptron)的任务顺序是什么?1随机初始化感知机的权重2、去到数据集的下一批(batch)3、如果预测值和输出不一致,则调整权重4、对一个输入样本,计算输出值A)1,23.4B)4,3,2,1C)3,1,2,4D)1,4,3,2答案:D解析:[单选题]62.tf.GradientTape用来记录()过程A)正向传播B)反向传播C)参数更新D)代价处理答案:A解析:[单选题]63.绘图时显示图例的命令是()。A)plt.plotB)plt.legendC)plt.legemdD)plt.show答案:B解析:难易程度:易题型:[单选题]64.关于符号主义描述正确是A)是人工智能的主流B)是人工智能的基础C)是人工智能的全部D)不是人工智能答案:A解析:[单选题]65.Vanishinggradientproblem是指在BP算法的过程中,error项逐渐变小,使得越靠前的网络层的学习速率越来越低A)梯度上升问题B)梯度优化C)梯度消失问题D)梯度下降法答案:C解析:[单选题]66.pytorch中,LSTM是否第一个维度是批次的参数为A)input_sizeB)batch_firstC)biasD)hidden_size答案:B解析:[单选题]67.神经网络的三层网络结构包括()。A)输入层、中间层、输出层B)输入层、输出层、中间层C)输入层、隐藏层、输出层D)输入层、输出层、隐藏层答案:C解析:难易程度:易题型:[单选题]68.tensorflow2.0诞生的时间是:A)2020.10.01B)2019.10.01C)2018.09.10D)2010.06.01答案:B解析:[单选题]69.百度飞桨中训练过程流程的内层循环是指()。A)负责整个数据集的二次遍历,采用分批次方式(batch)B)负责整个数据集的一次遍历,采用分批次方式(batch)C)定义遍历数据集的次数,通过参数EPOCH_NUM设置D)负责整个数据集的多次遍历,采用分批次方式(batch)答案:B解析:难易程度:易题型:[单选题]70.一幅彩色数字图像,分辨率为1024*768,请问在计算机中存储需要多少空间?A)0.28MBB)1.28MBC)2.28MBD)3.28MB答案:C解析:[单选题]71.曼哈顿距离的的运算方法是A)绝对值运算B)开方运算C)内积运算D)线性运算答案:A解析:[单选题]72.范数简称F-范数,是一种矩阵范数,记为()A)||*||FB)||·||FC)||-||FD)F||·||答案:B解析:[单选题]73.能够观测张量值分布的直方图随训练步骤的变化趋势的函数是:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:C解析:[单选题]74.()主要是指系统可以快速的对外部命令进行响应,在对应的时间里处理问题,协调系统工作。A)网络操作系统B)批处理系统C)分时系统D)实时系统答案:D解析:[单选题]75.对于序列[1,2.1,1.9,1,3.1,2.9]可能是A)二项式分布B)高斯分布C)均匀分布D)0-1分布答案:C解析:[单选题]76.()是指在一个操作系统中多个程序同时并行运行A)超线程B)多线程C)虚拟化D)多任务答案:D解析:多任务是指在一个操作系统中多个程序同时并行运行[单选题]77.Batch归一化即是A)批量归一化B)仅对输入数据进行归一化C)仅对隐藏层进行归一化D)提升了参数搜索难度答案:A解析:[单选题]78.当检查数据时,损失在2个周期后稳定在大约0.75,但在15个周期后精度上升到接近1.0。这代表了什么?A)2周期后的训练是没有意义的,因为我们过拟合了验证数据B)2周期后的训练是没有意义的,因为我们过拟合了训练数据C)更大的训练集将使我们具有更好的验证准确性D)更大的验证集将使我们具有更好的训练准确性答案:B解析:[单选题]79.卷积层的作用是A)增强图像B)简化图像C)特征提取D)图像处理答案:C解析:[单选题]80.灰度图像与黑白图像不同,在计算机图像领域中黑白图像只有黑白两种颜色,灰度图像在黑色与白色之间还有许多级的颜色()。A)亮度B)深度C)广度D)色度答案:B解析:灰度图像与黑白图像不同,在计算机图像领域中黑白图像只有黑白两种颜色,灰度图像在黑色与白色之间还有许多级的颜色深度。[单选题]81.在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是?A)正则参数太高B)陷入局部最小值C)学习率太高D)以上都有可能答案:D解析:[单选题]82.彩色图片数据()维张量A)1B)2C)3D)4答案:C解析:[单选题]83.不是随机梯度下降的特点是:A)批量数值选取为1B)学习率逐渐减小C)可以达到最小值D)在最小值附近波动答案:C解析:[单选题]84.能实现将一维数据写入CSV文件中的是()A)foB)frC)foD)fname答案:A解析:难易程度:易题型:[单选题]85.全连接层的作用是A)滤波B)One-hot处理C)用于特征提取D)用于分类答案:D解析:[单选题]86.?@tf.function?装饰器的作用是A)开启会话B)创建函数C)在tensorflow中应用函数D)匿名处理函数答案:A解析:[单选题]87.神经网络中W12的1是代表什么含义()。A)前一层的第一个神经元B)后一层的第一个神经元C)输入层的第一个神经元D)输出层的第一个神经元答案:B解析:难易程度:易题型:[单选题]88.矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总()A)差B)点乘C)和D)商答案:C解析:[单选题]89.关于面向对象的程序设计,以下选项中描述错误的是()。A)面向对象方法与人类习惯的思维方法-B)面向对象方法可重用性好C)Python3.x解释器内部采用完全面向对象的方式实现D)用面向对象方法开发的软件不容易理解答案:D解析:难易程度:易题型:[单选题]90.启动图/会话的第一步是创建一个Session对象,如:A)sess=tf.Session()B)sess.close()C)tf.addD)tf.eqeal答案:A解析:[单选题]91.一个向量空间加上拓扑学符合运算的(加法及标量乘法是连续映射)称为()A)拓扑向量空间B)内积空间C)矢量空间D)希尔伯特空间答案:A解析:[单选题]92.BP算法首个应用案例是?A)手写数字识别(CNN:LeNet)B)CPUC)GPUD)不清楚答案:A解析:[单选题]93.在手写数字大作业中,网上普遍使用的算法是()A)CNNB)CNNDC)GAND)GAND答案:A解析:难易程度:易题型:[单选题]94.我们可以通过下面哪种方法,将彩色图像转换为灰度图像?()A)Gray=R*0.3+G*0.59+B*0.11B)Gray=R*0.59+G*0.3+B*0.11C)Gray=R*0.59+G*0.11+B*0.3D)Gray=R*0.3+G*0.11+B*0.59答案:A解析:[单选题]95.列表ls=[[1,2,3,4,5,6,7,8,9],以下选项中描述错误的是()。A)ls可能是-B)ls可能是高维列表C)lsD)ls可能是多维列表答案:B解析:难易程度:易题型:[单选题]96.从sigmoid函数的图像中可以看到,如果x稍微大点的话,其值接近为1,则在进行反向传播算法的过程中对其求导的导数非常的接近0,因此会导致梯度为0的()的现象A)梯度消失B)梯度上升C)梯度下降D)梯度发散答案:A解析:[单选题]97.提升管道性能描述错误的是:A)使用prefetch方法让数据准备和参数迭代两个过程相互并行。B)使用map时设置num_parallel_calls让数据转换过程多进程执行。C)使用cache方法让数据在第一个epoch后缓存到内存中,仅限于数据集不大情形。D)使用map转换时,不用batch,采用向量化的转换方法对每个batch进行转换。答案:D解析:[单选题]98.在神经网络-开始应用卷积层将使训练A)更快B)这取决于许多因素。它可能会使您的训练更快或更慢,并且设计不良的卷积层可能甚至比普通的DNN还低效C)更慢D)持平答案:B解析:[单选题]99.进行独热处理的函数是A)scatter_B)onehotC)eyeD)diag答案:A解析:[单选题]100.反向传播算法一开始计算什么内容的梯度,之后将其反向传播?A)预测结果与样本标签之间的误差B)各个输入样本的平方差之和C)各个网络权重的平方差之和D)都不对答案:A解析:[单选题]101.abs(-3+4i)或者|-3i+4|的结果是()。A)3.0B)执行错误C)4.0D)5.0答案:D解析:难易程度:易题型:[单选题]102.sigmoid激活函数描述错误的是:A)结果值为0-1B)结果为正类别概率C)导数值为0-1D)常用于二分类答案:C解析:[单选题]103.神经网络中使用激活函数处理非线性因素,是因为()的效果不够A)非线性模型B)非线性+线性模型C)双曲线性模型D)线性模型答案:D解析:[单选题]104.pytorch中用于处理简单模型的构建方式为:A)继承nn.Module基类构建自定义模型B)使用nn.Sequential按层顺序构建模型C)继承nn.Module基类构建模型并辅助应用模型容器进行封装(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接处理答案:B解析:[单选题]105.为什么将数据分为训练集和测试集?A)使训练更快B)用以前看不见的数据训练网络C)用以前看不见的数据测试网络D)加快测试速度答案:C解析:[单选题]106.当权值过大,前面层比后面层梯度变化更快,会引起梯度爆炸问题,就是所谓的()A)梯度爆炸B)卷积C)池化D)全连接答案:A解析:[单选题]107.在信息论中,熵是接收的每条消息中包含的信息的平均量,又被称为()、信源熵、平均自信息量。A)离散随机事件B)信息熵C)范数D)信息论答案:B解析:[单选题]108.定义步长张量strides=[1,3,3,1]能纵向移动A)1像素B)2像素C)3像素D)4像素答案:C解析:[单选题]109.torch.nn.Conv2d中输出通道的参数为A)strideB)kerner_sizeC)in_channelsD)out_channels答案:D解析:[单选题]110.关于数据库数据的读写,下列说法正确的有()。A)read_sql_table可以使用SQL语句读写数据库数据B)pandas除了read_sql之外,没有其他数据库读写函数C)使用read_sql函数读取数据库数据时不需要使用数据库连接D)read_sql既可以使用SQL语句读取数据库数据,又可以直接读取数据库表答案:D解析:难易程度:中题型:[单选题]111.pytorch增加维度的函数是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:C解析:[单选题]112.在深度学习中,如果输入图像有2个,经过10个卷积核卷积后,输出图像有A)2B)5C)10D)不确定答案:C解析:[单选题]113.多义现象可以被定义为在文本对象中一个单词或短语的多种含义共存。下列哪一种方法可能是解决此问题的最好选择?BA)随机森林分类器B)卷积神经网络C)梯度爆炸D)上述所有方法答案:B解析:[单选题]114.np.uint8是什么数据类型()。A)一个字节大小,-128至127B)无符号整数,0至255C)布尔类型D)python对象答案:B解析:难易程度:易题型:[单选题]115.tensorflow一般和哪个框架配合使用A)kerasB)pytorchC)mxnetD)caffee答案:A解析:[单选题]116.Python中可用于机器学习的库文件是哪个()。A)learn-moreB)scikit-learnC)gekingD)auto答案:B解析:难易程度:易题型:[单选题]117.对于?性格温和?这种定性数据进行数量比较,必须:A)首先定量化B)首先建立距离空间C)首先定性化D)直接运算答案:A解析:[单选题]118.关于数据集划分,下列说法正确的是()。A)训练集的数据总是越多越好B)训练集与测试集的理想划分比例是5:5C)庞大数据集的训练集与测试集的划分比例可以为9:5D)训练集的数据量越大,模型的泛化能力越好答案:C解析:难易程度:中题型:[单选题]119.在keras.layers.Conv2D(filters,kernel_size,strides=(1,1),padding='valid',data_format=None,dilation_rate=(1,1),activation=None,use_bias=True,kernel_initializer='glorot_uniform',bias_initializer='zeros',kernel_regularizer=None,bias_regularizer=None,activity_regularizer=None,kernel_constraint=None,bias_constraint=None)方法中,表示输出空间的维度(即卷积中滤波器的输出数量)是哪个参数?A)filtersB)paddingC)kernel_sizeD)以上都没有答案:A解析:[单选题]120.pytorch中拼接的函数是A)concatB)c_C)catD)concateete答案:C解析:[单选题]121.对y=sigmoid(x)函数对x的导数可以写成A)y(1+y)B)exp(-x)C)1-exp(-x)D)y(1-y)答案:D解析:[单选题]122.关于深度学习的说法正确的是()A)增加层数,总会增加训练准确率B)减少层数,总会降低预测准确率C)增加层数,可能降低训练准确率D)减少层数,总会降低训练准确率答案:C解析:[单选题]123.废电池属于什么垃圾A)有害垃圾B)易腐垃圾C)可回收物D)不清楚答案:A解析:[单选题]124.对于*非连续*目标在深度神经网络的优化过程中,下面哪种梯度下降方法是最好的?DA)DB)AdaGradC)1-BFGSD)拉格朗日松Subgradientmethod答案:D解析:[单选题]125.sigmoid函数常使用的领域是A)多分类B)二分类C)rnnD)cnn答案:B解析:[单选题]126.已知:大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。每一个神经元都有输入、处理函数和输出。神经元组合起来形成了网络,可以拟合任何函数。为了得到最佳的神经网络,我们用梯度下降方法不断更新模型给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?()A)加入更多层,是神经网络的深度增加B)有维度更高的数据。C)当这是一个图形识别的问题时D)以上都不正确答案:A解析:[单选题]127.CrossEntropy交叉熵主要度量两个()分布间的差异性信息A)概率B)矢量C)矩阵数据D)空间答案:A解析:[单选题]128.()并不会改变网络,他会对神经元做随机删减,从而使得网络复杂度降低,有效的防止过拟合。A)BatchNormalizationB)L1正则化C)L2正则化D)Dropout答案:D解析:Dropout并不会改变网络,他会对神经元做随机删减,从而使得网络复杂度降低,有效的防止过拟合。[单选题]129.梯度下降算法的正确步骤是什么?1.计算预测值和真实值之间的误差2.重复迭代,直至得到网络权重的最佳值3.把输入传入网络,得到输出值4.用随机值初始化权重和偏差5.对每一个产生误差的神经元,调整相应的(权重)值以减小误差BA)l.B).1C).4D).2答案:B解析:[单选题]130.深度学习主要应用于()、语音识别、自然原因处理和智能医疗等各个领域。A)智能家居B)图像识别C)数据分析D)以上都不对答案:B解析:[单选题]131.通过试验超参数的不同取值不可以A)选择对训练集目标而言的最优解B)对于开发集而言的最优解C)超参搜索过程中最想优化的东西D)简化参数调试答案:D解析:[单选题]132.以下选项中,用于机器学习方向的第三方库是()A)jiebaB)losoC)paddleD)TensorE)平均值F)均方误差G)均方误差均值H)均方误差的和答案:C解析:难易程度:易题型:在下列代码中,第二个cost使用什么值衡量()defloss(self,z,y):error=z-ycost=error*errorcost=np.mean(cost)returncost难易程度:易题型:第2部分:多项选择题,共41题,每题至少两个正确答案,多选或少选均不得分。[多选题]133.以下属于深度学习常用框架的有A)tensorflow2.0B)kerasC)caffeD)sklearn答案:ABC解析:[多选题]134.我们常用的搜索最佳配置的方法包括()A)网格搜索B)主动搜索C)随机搜索D)被动搜索答案:AC解析:[多选题]135.腾讯云实例可理解为云服务器(CloudVirtualMachine,CVM),包含()、内存、网络等最基础的计算组件。A)磁盘B)CPUC)音箱D)操作系统答案:ABD解析:实例可理解为云服务器(CloudVirtualMachine,CVM),包含CPU、内存、操作系统、网络、磁盘等最基础的计算组件。[多选题]136.对于集合外一个点,到该集合的距离是A)是该点到集合边界点的最短距离B)是该点到集合内所有点的最短距离C)是该点到集合内任意一点的距离D)是该点到集合内非边界点的某点的距离答案:AB解析:[多选题]137.TensorFlow软件库可以轻松地将计算工作部署到多种平台()A)CPUB)GPUC)TPUD)SDK答案:ABC解析:[多选题]138.GRU中的门有A)遗忘门B)输入门C)输出门D)更新门答案:CD解析:[多选题]139.以下哪些词向量之间的差值非常接近?A)男人,女人B)国王,王后C)父亲,母亲D)父亲,儿子答案:ABC解析:[多选题]140.交叉熵函数是卷积神经网络中常使用函数softmax_cross_entropy的作用是?A)在全连接层B)进行优化时用C)用信息熵D)用softmax映射到概率空间答案:ABCD解析:[多选题]141.pytorch在gpu上跑数据时,需要将()移动到gpu上A)模型B)数据C)tensorboardD)评估指标答案:AB解析:[多选题]142.腾讯云的网络环境可以分为:()A)私有网络B)免费网络C)基础网络D)付费网络答案:AC解析:腾讯云的网络环境可以分为:基础网络和私有网络(VPC)[多选题]143.梯度为0的点可以是A)局部最优解B)全局最优解C)鞍点D)转折点答案:ABC解析:[多选题]144.不使用全连接处理序列问题的原因是A)时间步不能确定B)模型太简单C)只能处理分类D)算法精度不足答案:ABD解析:[多选题]145.云硬盘(CloudBlockStorage,CBS)为您提供用于云服务器的持久性数据块级存储服务,以下哪些描述是正确的()A)云硬盘提供多种类型及规格的磁盘实例,满足稳定低延迟的存储性能要求。B)云硬盘中的数据自动地在可用区内以多副本冗余方式存储,避免数据的单点故障风险,提供高达99.9999999%的数据可靠性C)使用块存储设备映射(device-mapping)来将这些存储设备映射为自身可以识别的位置D)云硬盘支持在同可用区的实例上挂载/卸载,并且可以在几分钟内调整存储容量,满足弹性的数据需求。您只需为配置的资源量支付低廉的价格就能享受到以上的功能特性。答案:ABD解析:云硬盘(CloudBlockStorage,CBS)为您提供用于云服务器的持久性数据块级存储服务。云硬盘中的数据自动地在可用区内以多副本冗余方式存储,避免数据的单点故障风险,提供高达99.9999999%的数据可靠性。云硬盘提供多种类型及规格的磁盘实例,满足稳定低延迟的存储性能要求。云硬盘支持在同可用区的实例上挂载/卸载,并且可以在几分钟内调整存储容量,满足弹性的数据需求。您只需为配置的资源量支付低廉的价格就能享受到以上的功能特性。[多选题]146.表示一副彩色图像有多种方法,包括()A)RGBB)CMYC)HSID)YCbCr答案:ABCD解析:[多选题]147.alexnet网络中使用的技术有A)数据增强B)relu激活C)dropout正则D)gpu加速答案:ABCD解析:[多选题]148.pytorch训练模型的三种方式为:A)脚本形式训练循环B)函数形式训练循环C)类形式训练循环D)fit函数答案:ABC解析:[多选题]149.控制控制cnn降采样的方式有A)卷积B)最大池化C)平均池化D)全连接答案:ABC解析:[多选题]150.下列属于序列处理多对一的场景是A)图像预测B)情感分类C)语音翻译D)写唐诗答案:AB解析:[多选题]151.人工智能的的三个主要流派是指A)符号主义B)连接主义C)行为主义D)机器学习答案:ABC解析:[多选题]152.关于反向传播算法,它也存在不足,其主要有:A)训练时间较长B)完全不能训练,训练时由于权值调整过大使激活函数达到饱和C)易陷入局部极小值D)?喜新厌旧?。训练过程中,学习新样本时有遗忘旧样本的趋势答案:ABCD解析:[多选题]153.哪些框架支持运行循环神经网络?A)TensorFlowB)KerasC)CaffeD)PyTorch答案:ABCD解析:[多选题]154.complie中包含的参数有A)metricsB)lossC)optimizerD)epochs答案:ABC解析:[多选题]155.在AI领域,图像识别技术经常会应用到好多场景,比如应用案例有?A)人脸检测B)表情判断C)动作识别D)无人驾驶、车牌识别答案:ABCD解析:[多选题]156.人工智能是解决机器()的学科A)感知B)理解C)决策D)证明答案:ABC解析:[多选题]157.可以用于卷积网络处理分类的是A)最大池化B)平均池化C)全连接D)卷积答案:BC解析:[多选题]158.在《深度学习》网络中,神经网络层的卷积部份一般都有什么层构成?A)卷积层B)RELUC)POOLING层D)pedding答案:ABC解析:[多选题]159.writer.add_scalar仅能对标量的值的变化进行可视化,一般用于()分析A)损失B)评估指标C)权重D)截距答案:AB解析:[多选题]160.语句中:tensorflow.truncated_normal(shape,mean,stddev)以下说法正确的是A)shape是张量形状B)正态随机数填充C)随机数需截断D)方差是stddev答案:ABC解析:[多选题]161.哪些属于序列数据A)语音识别B)情感分类C)机器翻译D)DNA序列分析答案:ABCD解析:[多选题]162.深度学习会用到()的学习方法来训练深度神经网络。A)有监督B)无监督C)行为主义D)机器学习答案:AB解析:[多选题]163.图像识别常用的方案有那些?A)人脸检测B)表情判断C)动作识别D)无人驾驶答案:ABCD解析:[多选题]164.以下属于梯度下降的有A)BGDB)SGDC)Mini-BatchD)dropout答案:ABC解析:[多选题]165.在tensorflow中,tf.reshape函数的参数是(tensor,shape,name=None),以下哪些描述是正确的?A)函数的作用是将tensor变换为参数shape形式B)其中的shape为一个列表形式C)name可省略D)-1所代表的含义是我们不用亲自去指定这一维的大小,函数会自动进行计算答案:ABCD解析:[多选题]166.pytorch常用的数据类型有:A)torch.float16,B)16,C)8,D)torch.bool答案:ABCD解析:[多选题]167.在数学里面,内积空间是增添了一个额外的结构的向量空间。这个额外的结构叫做(),或(),或()A)内积B)标量积C)点积D)点乘答案:ABC解析:[多选题]168.Linux具有()等特点。A)开放源码B)独立版权C)没有版权D)技术社区用户答案:ACD解析:Linux具有开放源码、没有版权、技术社区用户多等特点。[多选题]169.可用于创建独热编码的函数有:(不限框架)A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:ABC解析:np.eye()也可以进行独热[多选题]170.神经网络解决非线性分类,是通过:A)构造神经网络B)用激活函数C)训练权重矩阵D)让损失最大化答案:ABC解析:[多选题]171.语句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正确断言是:A)a是np指定的张量B)可以实现对tf张量的任意填充C)convert_to_tensor将a转换成tf张量D)S是指向tf张量的结点答案:ABCD解析:[多选题]172.CNN网络结构中常用的处理有A)卷积层B)池化层C)全连接层D)激活函数答案:ABCD解析:[多选题]173.关于Padding的说法中:正确的是A)以0填充B)填充厚度是卷积核一半C)步长为1D)图像尺寸变小答案:AB解析:第3部分:判断题,共54题,请判断题目是否正确。[判断题]174.关于循环神经网络,GRU中有两个门A)正确B)错误答案:对解析:[判断题]175.对于函数tf.expand_dims函数用于对张量维度扩充。A)正确B)错误答案:对解析:[判断题]176.Print(sess.run(tf.sigmoid(a)))是逻辑回归A)正确B)错误答案:错解析:[判断题]177.训练机器学习算法的主要目的是调整权重w以最小化损失函数或成本函数。A)正确B)错误答案:对解析:[判断题]178.在深度神经网络中,通常使用一种叫修正线性单元(Rectifiedlinearunit,ReLU)作为神经元的激活函数A)正确B)错误答案:对解析:[判断题]179.人工智能属于机器学习的一个分支。()A)正确B)错误答案:错解析:[判断题]180.机器学习是一种随着经验积累、自动提高性能、完成特定任务的计算机程序A)正确B)错误答案:对解析:[判断题]181.与传统机器学习方法相比,深度学习的优势在于深度学习完全不提取底层特征,如图像边缘、纹理等。A)正确B)错误答案:错解析:[判断题]182.超参数范围中,随机取值是选择合适的标尺进行取值A)正确B)错误答案:对解析:[判断题]183.机器演奏音乐属于一对多处理方式A)正确B)错误答案:对解析:[判断题]184.Yolo采用一个CNN网络来实现检测,是单管道策略,其训练与预测都是end-to-end,所以Yolo算法比较简洁且速度快A)正确B)错误答案:对解析:[判断题]185.Tf.random_normal()函数用于从服从指定正态分布的数值中取出指定个数的值A)正确B)错误答案:对解析:[判断题]186.fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况A)正确B)错误答案:对解析:fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况[判断题]187.caffe的基本工作流程所有计算以层的形式表示,网络层所做的事情就是输入数据,然后输出计算结果。A)正确B)错误答案:对解析:[判断题]188.均方损失函数,是个数量函数,它的张量的维度是0A)正确B)错误答案:对解析:[判断题]189.cost.backward()会一直叠加梯度A)正确B)错误答案:对解析:[判断题]190.数据增强不能解决过拟合问题A)正确B)错误答案:错解析:[判断题]191.深度学习的发展先后经过起源阶段、发展阶段、和爆发阶段。A)正确B)错误答案:对解析:[判断题]192.在深度多层感知机网络中,梯度爆炸会引起网络不稳定,最好的结果是无法从训练数据中学习,而最坏的结果是出现无法再更新的NaN权重值。A)正确B)错误答案:对解析:[判断题]193.请阅读以下情景:情景1:你拥有一份阿卡迪亚市(Arcadiacitv)地图的数据,数据中包含市内和郊区的航拍图片。你的任务是将城市划分为工业区、农场以及山川河流等自然区域等等。情景2:你拥有一份阿卡迪亚市(Arcadiacity)地图的数据,数据中包含详细的公路网和各个地标之间的距离,而这些都是以图表的形式呈现的。你的任务是找出任意两个地标之间的最短距离习以在应用但无法应用在情景2中,这种说法是:A)正确的B)错误的答案:错解析:[判断题]194.理论上用sigmoid函数也能将运算映射到概率空间。A)正确B)错误答案:对解析:[判断题]195.梯度消失可以通过更好的激活函数来解决A)正确B)错误答案:对解析:[判断题]196.描点标注是指图像中选取要标注的实体,使用方框描述其所在位置的一-类任务。()A)正确B)错误答案:错解析:[判断题]197.resnet可以很好解决梯度消失问题A)正确B)错误答案:对解析:[判断题]198.Relu是一个激活函数A)正确B)错误答案:对解析:[判断题]199.在欧氏空间中,凸集是对于集合内的每一对点,连接该对点的直线段上的每个点也在该集合内。A)正确B)错误答案:对解析:[判断题]200.有了联结权重w和激活函数H(x)之后,就可以由前往后计算,依次算出所有的经过联结权重处理后的输出值,经过激活函数处理之后的输出值,最终算出输出层的y值。这就是前向传播算法A)正确B)错误答案:对解析:[判断题]201.Pytorch通过反向自动求导技术实现了神经网络的零延迟任意改变。A)正确B)错误答案:对解析:[判断题]202.Keras必须依赖其他框架才能使用A)正确B)错误答案:错解析:[判断题]203.使用torch.utils.data.TensorDataset根据Tensor创建数据集(numpy的array,Pandas的DataFrame需要先转换成Tensor)。A)正确B)错误答案:对解析:[判断题]204.损失函数,输出是个向量。A)正确B)错误答案:错解析:[判断题]205.深度学习是含有一个隐含层的多层神经网络模型的强化学习,训练过程加入了激活函数。()A)正确B)错误答案:错解析:[判断题]206.最常用的池化方式是最大池化A)正确B)错误答案:对解析:[判断题]207.池化是降采样的唯一手段A)正确B)错误答案:错解析:[判断题]208.Padding(填充)属性定义元素边框与元素内容之间的空间A)正确B)错误答案:对解析:[判断题]209.对于形如[[[],[]]]的张量,它的维度向量是[1,2,0]。A)正确B)错误答案:对解析:[判断题]210.每个神经元可以有一个输入和多个输出。A)正确B)错误答案:对解析:[判断题]211.卷积不可以处理序列模型A)正确B)错误答案:错解析:[判断题]212.学习率增加,模型能力增加。A)正确B)错误答案:错解析:[判断题]213.增大卷积核的大小必然会提高卷积神经网络的性能。A)正确B)错误答案:错解析:[判断题]214.可以利用卷积达到降采样的目的A)正确B)错误答案:对解析:[判断题]215.物体检测中应用NMS算法的主要目的是消除多余(交叉重复)的窗口,找到最佳物体检测位置。A)正确B)错误答案:对解析:[判断题]216.增大权重和偏置的初始化值在神经网络中引入了非线性。A)正确B)错误答案:错解析:[判断题]217.梯度下降是训练机器学习算法中常用的优化技术。A)正确B)错误答案:对解析:[判断题]218.最大池化可以应用到多分类前进行处理A)正确B)错误答案:错解析:[判断题]219.事件的信息量,与事件发生的概率无关。A)正确B)错误答案:错解析:[判断题]220.在实际项目中,不一定需要验证集A)正确B)错误答案:对解析:[判断题]221.LSTM可以解决梯度消失问题A)正确B)错误答案:对解析:[判断题]222.RMSprop算法是将指数加权平均数先平方再开方A)正确B)错误答案:对解析:[判断题]223.深度学习模型需要大量的训练数据,才能展现出神奇的效果,但现实生活中往往会遇到小样本问题,此时深度学习方法无法入手,传统的机器学习方法就可以处理A)正确B)错误答案:对解析:深度学习模型需要大量的训练数据,才能展现出神奇的效果,但现实生活中往往会遇到小样本问题,此时深度学习方法无法入手,传统的机器学习方法就可以处理[判断题]224.双向RNN可以解决梯度消失问题A)正确B)错误答案:错解析:[判断题]225.卷积后提取特征的个数小于卷积核的个数。A)正确B)错误答案:错解析:[判断题]226.使用梯度裁剪有助于减缓梯度爆炸问题。A)正确B)错误答案:对解析:[判断题]227.古典概率通常又叫事前概率,是指当随机事件中各种可能发生的结果及其出现的次数都可以由演绎或外推法得知,而无需经过任何统计试验即可计算各种可能发生结果的概率。A)正确B)错误答案:对解析:第4部分:问答题,共33题,请在空白处填写正确答案。[问答题]228.面哪种情况下,一阶梯度下降不一定正确工作(可能会卡住)?A)无图B)无答案答案:A解析:[问答题]229.名词解释:区域映射答案:使感兴趣范围的灰度变亮(或变暗),而保持其他灰度级不变-即区域映射解析:[问答题]230.编程:实现计算真实值与输入值之间的交叉熵,并将结果输出。注:输入值为变量,形状为2行3列,数据类型为32位浮点型。真实值为变量,形状为2行3列,数据类型为32位浮点型。答案:ImporttensorflowastfInput_data=tf.Variable([[0.2,0.1,0.9],[0.3,0.4,0.6]],dtype=tf.float32)Labels=tf.constant([[1,0,0],[0,1,0]],dtype=tf.float32)Cross_entropy=-tf.reduce_mean(labels*tf.log(tf.clip_by_value(input_data,1e-10,1.0)))Withtf.Session()assess:init=tf.global_variables_initializer()sess.run(init)print(sess.run(cross_entropy))解析:[问答题]231.在tensorflow构建阶段,节点的执行步骤被描述成为____。答案:图;解析:[问答题]232.简述卷积神经网络卷积层的结构特点。答案:卷积层主要用来进行特征提取,常用的方式是进行卷积操作,在图片上采用合适大小的卷积核在每一个通道上进行扫描,卷积得到图像的邻域特征。解析:[问答题]233.在神经网络中,激活函数的作用是加入_______因素。答案:非线性;解析:[问答题]234.卷积函数中strides参数的作用是什么?答案:Strides是在卷积层工作的时候,每次滑动的单位,在实际工作过程中strides=1代表每次滑动一个单位的像素,strides=2表示每次滑动2个像素值。解析:[问答题]235.tf.clip_by_value(A,min,max)函数的作用是什么?答案:输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。小于min的让它等于min,大于max的元素的值等于max。解析:[问答题]236.绘制散点的方法_______答案:scatter()解析:[问答题]237.声明变量通常使用_______函数。答案:Tf.Variable();解析:[问答题]238.CNN可以有效提取图像中的_______答案:特征解析:[问答题]239.为什么需要TensorFlow等库?答案:深度学习通常意味着建立具有很多层的大规模的神经网络,TensorFlow的对函数自动求导以及分布式计算,可以帮我们节省很多时间来训练模型。解析:[问答题]240.在tensorflow中,使用______函数来判断两个值是否相等。答案:Tf.equal();解析:[问答题]241.编程:实现线性回归y=w*x。答案:ImporttensorflowastfImportnumpyasnp#样本,输入列表,正太分布(NormalDestribution),均值为1,均方误差为0.1,数据量为100个X_vals=np.random.normal(1,0.1,100)#样本输出列表,100个值为10.0的列表Y_vals=np.repeat(10.0,100)X_data=tf.placeholder(shape=[1],dtype=tf.float32)Y_target=tf.placeholder(shape=[1],dtype=tf.float32)A=tf.Variable(tf.random_normal(shape=[1]))#我们定义的模型,是一个线型函数,即y=w*x,也就是my_output=A*x_data#x_data将用样本x_vals。我们的目标是,算出A的值。#其实已经能猜出,y都是10.0的话,x均值为1,那么A应该是10。哈哈My_output=tf.multiply(x_data,A)#损失函数,用的是模型算的值,减去实际值,的平方。y_target就是上面的y_vals。Loss=tf.square(my_output-y_target)Sess=tf.Session()Init=tf.global_variables_initializer()#初始化变量Sess.run(init)#梯度下降算法,学习率0.02,可以认为每次迭代修改A,修改一次0.02。比如A初始化为20,发现不好,于是猜测下一个A为20-0.02My_opt=tf.train.GradientDescentOptimizer(learning_rate=0.02)Train_step=my_opt.minimize(loss)#目标,使得损失函数达到最小值Foriinrange(100):#0到100,不包括100#随机从样本中取值rand_index=np.random.choice(100)rand_x=[x_vals[rand_index]]rand_y=[y_vals[rand_index]]#损失函数引用的placeholder(直接或间接用的都算),x_data使用样本rand_x,y_target用样本rand_ysess.run(train_step,feed_dict={x_data:rand_x,y_target:rand_y})#打印ifi%5==0:print('step:'+str(i)+'A='+str(sess.run(A)))print('loss:'+str(sess.run(loss,feed_dict={x_data:rand_x,y_target:rand_y})))解析:[问答题]242.人工神经网络的基本结构为()。答案:输入层输出层隐藏层解析:[问答题]243.BatchNorm的思想是调整各层的激活值分布使其拥有适当的_______答案:广度解析:[问答题]244.最大池化的具体操作是什么?答案:最大池化的具体操作是:整个图片被不重叠的分割成若干个同样大小的小块(poolingsize)。每个小块内只取最大的数字,再舍弃其他节点后,保持原有的平面结构得出结果。解析:[问答题]245.为什么用relu就不用sigmoid了?答案:Sigmoid的导数只有在0的附近时有比较好的激活性,在正负饱和区域的梯度都接近0,会导致梯度弥散。而relu函数在大于0的部分梯度为常数,不会产生梯度弥散现象。Relu函数在负半区导数为0,也就是说这个神经元不会经历训练,就是所谓稀疏性。而且relu函数的导数计算的更快。解析:[问答题]246.编程:定义getMatrix(x,y)函数。参数x是正整数,参数y是整数。你需要生成一个形状为x*x,初值为y的矩阵。之后将该矩阵的对角线上的每个元素加1。再求该矩阵的逆矩阵的行列式,当该矩阵没有逆矩阵式时,返回0。答案:ImporttensorflowastfDefgetMatrix(x,y):a=tf.fill([x,x],float(y))b=tf.diag(tf.fill([x],1.0))c=tf.ad

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论