版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
注:不含主观题第1题机器学习(深度学习)系统中通常将数据集划分为训练集和测试集,其中被用来学习得到系统的参数取值的是A训练集(trainingset)B测试集(testingset)C训练集(trainingset)和测试集(testingset)D其它选项都不对第2题测试集(testingset)用于最终报告模型的评价结果,因此在训练阶段测试集中的数据一般是否可以出现在训练集中?A不可以B可以第3题超参数和参数的区别。参数一般是模型需要根据训练数据可以自动学习出的变量。超参数一般就是根据经验确定预设的变量。下面哪些是超参数?A深度学习模型的权重,偏差B深度学习的学习速率、人工神经网络的层数C深度学习的迭代次数D深度学习的每层神经元的个数正确答案:BCD第4题K折交叉验证通常将数据集随机分为k个子集。下列关于K折交叉验证说法错误的是A每次将其中一个子集作为测试集,剩下k-1个子集作为训练集进行训练B每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试C划分时有多种方法,例如对非平衡数据可以用分层采样,就是在每一份子集中都保持和原始数据集相同的类别比例D留一法即k=1的k折交叉验证。留一法计算最繁琐,但样本利用率最高。适合于小样本的情况第5题已知如下定义:Truepositives(TP):
被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);Falsenegatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;Falsepositives(FP):被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True
negatives(TN):
被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
则下面定义正确的是:A分类准确率
Accuracy=(TP+TN)/(P+N)B精确率
Precision=TP/(TP+FP)C召回率
Recall=TP/PD以上都不对正确答案:ABC第6题F值的公式为Fβ=[(1+β2)*Precision*Recall]/(β2*Precision+Recall),即其为准确率和召回率的调和平均。如果二者(即准确率和召回率)同等重要,则为AF1BF2CF0.5DF3第7题ROC(受试者工作特征曲线,receiveroperatingcharacteristiccurve)描绘了分类器在
fprate(错误的正例,横轴)和tprate(真正正例,纵轴)间的trade-off(权衡)。下面说法正确的是:AA.(纵轴)敏感性高=漏诊率低,
而(横轴)特异性低=误诊率高B(纵轴)敏感性高=漏诊率高,
而(横轴)特异性低=误诊率高C(纵轴)敏感性高=漏诊率高,
而(横轴)特异性低=误诊率低D(纵轴)敏感性高=漏诊率低,
而(横轴)特异性低=误诊率低第8题关于ROC(受试者工作特征曲线,receiveroperatingcharacteristiccurve)中AUC(AreaUnderCurve)说法正确的是A定义为ROC曲线下的面积BAUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好C取值范围为[0,1]D其它都不对正确答案:ABC第9题关于
Cohen'skappa和Fleiss'kappa的区别:ACohen’skappa主要用于衡量两个评价者(
raters
)之间的一致性(agreement).B如果评价者多于2人时,可以考虑使用Fleiss'kappa.C二者没有本质区别,可以等价D其它选项都不对正确答案:AB第10题关于
Cohen'skappa取值的含义,下列错误的是:A1其取值通常在-1和+1之间B1其取值为+1,说明一致性最好C1其取值越大,说明一致性越好D1其取值越小,说明一致性越好第二讲作业第1题自然语言处理中为了计算文档之间的相似度,往往需进行文档的量化表示,下面关于BOW(即Bag-Of-Wordsmodel)和VSM(VectorSpaceModel)的描述正确的是:ABOW,即词袋模型。即为了计算文档之间的相似度,假设可以忽略文档内的单词顺序和语法、句法等要素,将其仅仅看作是若干个词汇的集合。BVSM,即向量空间模型。是一种表示文本文档的数学模型。将每个文档表示成同一向量空间的向量。C在VSM,即向量空间模型中,所有文档的向量维度的数目都相同。D其它选项都不对正确答案:ABC第2题为了在python程序中进行英文自然语言的处理,如词语切分(Tokenization)词干提取(Stemming)等工作,需要使用的导入模块语句通常为:Aimportmatplotlib.pyplotaspltBimportnltkCimportnumpyasnpDfromsklearnimportsvm,datasets第3题为了进行中文的分词或者词性标注等处理,可以使用的导入模块语句为:Aimportmatplotlib.pyplotaspltBimportnumpyasnpCimport
jiebaDfromsklearnimportsvm,datasets第4题对于文本“Iliketoeatapple”,则下列关于N-gram的描述正确的是A其Uni-gram为“I”,“like”,
“to”,“eat”,“apple”B其Bi-gram为“Ilike”,“liketo”,
“toeat”,“eatapple”C其Tri-gram为“Iliketo”,“liketoeat”,
“toeatapple”D其它选项都不对正确答案:ABC第5题关于特征降维方法有线性判别分析(LDA)和主成分分析法(PCA),错误的是ALDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间BLDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法CPCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法DLDA和PCA都是有监督的降维方法第6题对于下面的一段python程序,计算的是向量之间的importnumpyasnpx=np.random.random(5)y=np.random.random(5)sim=np.dot(x,y)/(np.linalg.norm(x)*np.linalg.norm(y))A1欧氏距离B1余弦相似度C1欧式相似度D1马修相关系数第7题对于下面的一段python程序,sim中保存的是向量之间的:importnumpyasnpx=np.random.random(5)y=np.random.random(5)fromscipy.spatial.distanceimportpdistX=np.vstack([x,y])sim=1-pdist(X,'cosine')A1欧氏距离B1余弦相似度C1余弦距离D1马修相关系数第8题下面的一段python程序的目的是使用主成分分析法(principalcomponentanalysis)
对iris数据集进行特征降维,以便于数据的二维平面可视化。则其中空格处应该填充的数字为?
importmatplotlib.pyplotaspltfromsklearn.decompositionimportPCAfromsklearn.datasetsimportload_irisdata=load_iris()X=data.datay=data.targetpca=PCA(n_components=
)reduced_X=pca.fit_transform(X)A1B2C3D4第9题
下图是使用主成分分析法对iris数据集进行特征降维并进行二维平面可视化的结果。则为了绘图,需要使用的导入语句是下面哪一种?
Aimportmatplotlib.pyplotaspltBfromsklearn.decompositionimportPCACfromsklearn.ldaimportLDADimportnumpyasnp第10题
下面哪一条语句是用于导入nltk中的英文词性标注的模块?Afromnltkimportword_tokenizeBfromnltk.stemimportPorterStemmerCfromnltkimportpos_tagD
fromnltk.corpusimporttreebank第三讲作业第1题关于线性模型,下列说法错误的是A1狭义线性模型通常是指自变量与因变量之间呈按比例、成直线的关系。一阶导数不为常数B1线性通常表现为1次曲线C1广义线性是线性模型的扩展,主要通过联结函数,使预测值落在响应变量的变幅内D1非线性一般指不按比例、不成直线的关系,一阶导数不为常数第2题下列哪些是常见的非线性回归模型?A2次以上的多项式
B双曲线模型C幂函数模型D指数函数模型正确答案:ABDC第3题下列关于梯度下降(Gradientdescent)法的描述错误的是
A1梯度下降是利用一阶的梯度信息找到代价函数局部最优解的一种方法B1通常会先初始化一组参数值,然后在这个值之上,用梯度下降法去求出下一组的值。由于是梯度下降的,所以损失函数
的值在下降。当迭代到一定程度,此时的参数取值即为要求得的值C1学习速率的选取很关键,如果学习速率取值过大,容易达不到极值点甚至会发散,学习速率太小容易导致收敛时间过长D1其中的学习速率是模型参数,而不是超参数第4题下面的一段python程序是使用scikit-learn来构建线性回归模型,其中最后一条语句的目的是得到X_test的预测结果,则空格内应该填入的函数为
fromsklearn.linear_modelimportLinearRegressionX=[[6,2],[8,1],[10,0],[14,2],[18,0]]y=[[7],[9],[13],[17.5],[18]]model=LinearRegression()model.fit(X,y)X_test
=[[8,2],[9,0],[11,2],[16,2],[12,0]]y_test=[[11],[8.5],[15],[18],[11]]predictions=model.(X_test)A1predictB1getC1predD1learn第5题对某数据集进行高次多项式的回归,逐渐增加多项式的次数,如采用七次多项式回归拟合,曲线经过了所有训练集中的点,但在测试集上的R方值却变得更低了。则以下表述正确的是A1发生了过拟合较为严重(overfitting)的情况B1发生了欠拟合较为严重(underfitting)的情况C1学习得到了一个非常好的模型,其在测试集上的表现最好D1R方值越大,则模型性能越好正确答案:DA第6题下列关于逻辑回归的描述错误的是A1线性回归的结果输出通常是一个连续值,值的范围是无法限定的。逻辑回归通过使用sigmoid函数将其转为(-1,1)
的一个概率值,从而能够完成对事件发生的概率进行预测。B1逻辑回归可以被理解为是一个被logistic方程归一化后的线性回归。C1逻辑回归属于连接函数为sigmoid函数的广义线性模型。D1Sigmoid
函数有个很漂亮的“S”形,特点是一开始变化快,逐渐减慢,最后饱和。第7题scikit-learn中的逻辑回归解决方案“liblinear”使用的是CD优化(即coordinatedescent,坐标下降)算法,则下面的描述错误的是:
ACD是一种梯度优化算法。B在每次迭代中,该方法在当前点处沿一个坐标方向进行一维搜索以求得一个函数的局部极小值。在整个过程中循环使用不同的坐标方向。C该方法从一个初始的猜测值以求得函数的局部最优值。该方法需要迭代进行。D如果在某次迭代中,函数得不到优化,说明一个驻点已经达到。但是对于非平滑函数,坐标下降法可能会在在非驻点中断执行第8题在scikit-learn中,如何处理多类分类(Multi-classclassification)问题?A1scikit-learn无法实现多类分类B1scikit-learn只能用one-vs.-all实现多类分类C1scikit-learn只能用one-vs.-the-rest方法实现多类分类D1scikit-learn可以使用one-vs-one或one-vs.-the-rest方法实现多类分类,即将多类分类问题转化为构建若干个两类的分类器第9题下面关于岭(Ridge)回归的描述正确的是A1岭回归使用L1正则化B1岭回归使用L2正则化C1岭回归使用L1+L2正则化D1岭回归不使用正则化第10题下面关于Lasso回归的描述正确的是A1Lasso回归使用L1正则化B1Lasso回归使用L2正则化C1Lasso回归使用L1+L2正则化D1Lasso回归不使用正则化第四讲作业第1题下面关于信息熵的描述中错误的是:A1热力学中的热熵是表示分子状态混乱程度的物理量。信息熵概念的提出受到了热力学中的热熵的概念的启发B1信息熵由Shannon提出,信息熵的概念可以用来描述信源的不确定度C1信息熵是通信领域的概念,和机器学习以及深度学习无关D1在深度学习中,经常使用交叉熵来表征两个变量概率分布P,
Q(假设P表示真实分布,
Q为模型预测的分布)的差异性。第2题下面关于相对熵(relativeentropy)的说法不正确的是A1相对熵又称为KL散度(Kullback–Leibler
divergence)B1相对熵又称为信息散度(information
divergence)C1相对熵又称为信息增益(information
gain)D相对熵又被称之为KL距离,因此满足对称性第3题下面关于JS散度和KL散度的区别的说法错误的是A1KL散度不具对称性B1JS散度具备对称性C1JS散度在KL散度的基础上进行了改进D
二者都不具备对称性第4题关于感知机(perceptron),下列说法错误的是A1感知机由Rosenblatt于1957年提出,是神经网络的基础B1感知机是二分类的线性分类模型,属于有监督学习算法C1感知机是二分类的线性分类模型,属于无监督学习算法D1感知机的预测是用学习得到的感知机模型对新的实例进行预测的,因此属于判别模型。第5题下列哪种概念表达了在已知随机变量Y的条件下随机变量X的不确定性?A
交叉熵B
互信息C
条件熵D相对熵第6题
对于下面的一段python程序,下面的说法错误的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])
kl1=np.sum(p*np.log(p/q))kl2=np.sum(q*np.log(q/p))A1程序最后两行的计算结果是相等的B1程序最后两行的计算结果是不相等的C1程序最后两行的的目的是计算相对熵,其是交叉熵与信息熵的差值D1程序的目的是计算相对熵,其不具备对称性第7题对于下面的一段python程序,下面的说法正确的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*np.sum(p*np.log(p/M))+0.5*np.sum(q*np.log(q/M))A1最后一行是计算p和q之间的KL散度B1最后一行是计算p和q之间的JS散度C1最后一行是计算p和q之间的条件熵D1最后一行是计算p和q之间的交叉熵第8题对于下面的一段python程序,下面的说法正确的是
importnumpyasnpimportscipy.statsp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*scipy.stats.entropy(p,M)+0.5*scipy.stats.entropy(q,M)A1最后一行是计算p和q之间的KL散度B1最后一行是计算p和q之间的JS散度C1最后一行是计算p和q之间的条件熵D1最后一行是计算p和q之间的交叉熵第9题对于下面的一段python程序,下面的说法正确的是importnumpyasnppredicted=np.array([11.2,
2.5,
7.9,
7.2])label=np.array([1,0,0,0])defsoftmax(x):returnnp.exp(x)/np.sum(np.exp(x),axis=0)
print(softmax(predicted))loss=-np.sum(label*np.log(softmax(predicted)))A1最后一行是计算predicted和label之间的互信息B1最后一行是计算predicted和label之间的JS散度C1最后一行是计算predicted和label之间的条件熵D1最后一行是计算predicted和label之间的交叉熵第10题对于给定的下面的一段python程序及其输出,下面的说法正确的是importnumpyasnp
a=np.asarray([0.5,0.5])#假设a为实际分布b=np.array([0.25,0.75])c=np.array([0.125,0.875])kl1=np.sum(a*np.log(a/b))print("b,a",kl1)kl2=np.sum(a*np.log(a/c))print("c,a",kl2)
其输出结果为b,a0.143841036226c,a0.413339286592A1程序的输出是计算了条件熵B1程序的输出是计算了互信息C1b和c相比,更接近实际分布aD1c和b相比,更接近实际分布a第五讲作业第1题下列哪种模型更适合序列建模与预测?A1循环神经网络RNNB1卷积神经网络CNNC1多层感知机D1长短时记忆网络LSTM正确答案:AD第2题下列关于循环神经网络RNN(RecurrentNeuralNetworks)说法错误的是A1隐藏层之间的节点有连接B1隐藏层之间的节点没有连接C1隐藏层的输入不仅包括输入层的输出,还包括上一时刻隐藏层的输出D1网络会对之前时刻的信息进行记忆并应用于当前输出的计算中第3题循环神经网络RNN(RecurrentNeuralNetworks)可以处理哪些情况?A1多对多的同步序列输入输出。如词性标注等B1多对一的处理,如判断一段文字的情感分类C1多对多的非同步序列输入和序列输出,如机器翻译中输入英文语句然后翻译为法语形式输出D1一对多的序列输出。如输入一张图片,生成输出一段文字序列正确答案:ABCD第4题下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是A1LSTM是简化版的RNNB1LSTM是双向的RNNC1LSTM是多层的RNND1LSTM是RNN的扩展,其通过特殊的结构设计来避免长期依赖问题第5题标准RNN(循环神经网络)无法处理更长的上下文间隔,即长期依赖问题。为此Hochreiter&Schmidhuber(1997)提出一种特殊的RNN类型,其通过特殊的结构设计来避免长期依赖问题。并被AlexGraves进行了改良和推广。这种改进的模型是A1长短期记忆网络LSTMB1卷积神经网络CNNC1多层感知机MLPD1受限玻尔兹曼机第6题下列说法错误的是A1标准RNN隐藏层只有一个状态h,对短期输入敏感,但难以捕捉长期上下文B1LSTM在隐藏层上增加了一个长期状态c
(cell
state),用于保存长期状态。C也被称为单元状态或细胞状态C1LSTM只有长期状态,没有隐藏状态D1LSTM既有长期状态,也有隐藏状态第7题下列关于LSTM说法正确的是A1LSTM用三个控制门记忆长期状态B1忘记门控制保存之前的长期状态C1输入门控制更新长期状态D1输出门控制是否把长期状态作为当前的LSTM的输出正确答案:ABCD第8题
LSTM通过“门”结构来去除或者增加信息到细胞状态(长期状态)。为了让信息选择性通过,则A1一般需要一个
sigmoid
神经网络层和一个
pointwise
乘法操作B1一般需要一个
sigmoid
神经网络层和一个
pointwise
加法操作C1一般需要一个
tanh
神经网络层和一个
pointwise
乘法操作D一般需要一个
tanh
神经网络层和一个
pointwise
加法操作第9题下列关于GRU(GatedRecurrentUnitCho,etal.2014)的哪个描述是错误的?A1GRU混合了长期状态和隐藏状态B1和LSTM相同的是,
GRU也有三个门,即忘记门、更新门和输出门C1在GRU中,取消了LSTM中的输出门D1如果reset门为1,而update门为0的话,则GRU完全退化为一个RNN。第10题下列关于双向RNN的说法正确的有A1双向网络假设当前步的输出只与前面的序列有关,而与后面的序列无关B1双向网络假设当前步的输出与前面的序列无关,而与后面的序列有关C1双向网络假设当前步的输出既与前面的序列有关,也与后面的序列有关D1Bidirectional
RNNs由两个RNNs上下叠加组成。输出由这两个RNNs的隐藏层的状态决定正确答案:CD第六讲作业第1题在卷积神经网络的某个降采样层(pooling层)中,经过降采样处理,得到了16个5*5的特征图,其每个单元与上一层的2*2邻域连接(滑动窗口为2*2)。则该降采样层的尺寸和上一个层的尺寸的关系是?A
降采样层的尺寸是上一层的尺寸的1/2B降采样层的尺寸是上一层的尺寸的1/4C
降采样层的尺寸是上一层的尺寸的1/8D降采样层的尺寸是上一层的尺寸的4倍第2题关于采用卷积神经网络进行图像分类和文本分类的比较,下列说法错误的是A卷积神经网络只能用于图像分类,不能用于文本分类,没有相关文献;B
使用卷积神经网络进行句子分类,一般将句子中每个词表示为固定长度的向量,这样句子就可以表示为矩阵,从而使得在结构上与图像类似,并在后续进行卷积等处理C
图像处理应用中,卷积核处理的局部区域为图像的一小块区域,而在文本分类时卷积核处理的局部区域通常为相邻的上下几行(几个词)。因此卷积核的宽度和输入矩阵的宽度相等D
使用卷积神经网络进行句子分类或者文档分类,卷积提取的特征与采用n-gram模式提取的特征类似第3题关于卷积神经网络的说法正确的是A1从开始的层到后面的层,经过变换得到的特征图的尺寸逐渐变大B1从开始的层到后面的层,经过变换得到的特征图的尺寸逐渐变小C1从开始的层到后面的层,经过变换得到的特征图的尺寸大小不变D1从开始的层到后面的层,经过变换得到的特征图的尺寸开始变小,后来变大第4题关于卷积神经网络中池化处理(pooling)的说法正确的是A1在卷积神经网络中,卷积的下一步通常是进行池化处理(pooling)B1池化处理主要是对不同位置的特征进行聚合统计C1池化处理起到了减少了参数和降维的作用D1常用的池化做法是对每个滤波器的输出求最大值、平均值等正确答案:ABCD第5题下列关于卷积神经网络的描述正确的是A1卷积神经网络的层与层之间都是全连接网络B1卷积神经网络的层与层之间都是部分连接网络C1卷积神经网络的层与层之间既有可能是全连接,也有可能是局部连接。通常是开始的若干层是局部连接,最后的层是全连接D1卷积神经网络的层与层之间既有可能是全连接,也有可能是局部连接。通常是开始的若干层是全连接,最后的层是局部连接第6题
在卷积神经网络中典型的模式是?A1卷积层后为池化层,然后还是卷积层-池化层B1多个连续的池化层,然后跟着一个卷积层C1网络中最后的几个层是全连接层D1网络中最开始的几个层是全连接层正确答案:AC第7题卷积神经网络的一个特点是“参数共享”。下面关于“参数共享”的哪种说法是正确的?A1如果参数较多,则容易导致过拟合。而减少参数有助于避免过拟合B1参数共享的优势是通过一个任务上学习到的参数可以直接应用到另外一个任务上C1可以允许一个特征检测器在整个输入图像的不同位置使用,即可以把参数看成是卷积提取特征的方式,该方式与位置无关D1参数越多,才能避免过拟合,减少参数容易导致过拟合正确答案:AC第8题
由于池化层没有需要求解的参数,因此其对反向传播中梯度计算没有影响第9题假设输入的图像为100*100像素(RGB)的图像,并且没有使用卷积神经网络。如果第一个隐藏层有50个神经元,每个神经元与输入图像是全连接的关系,则这个隐藏层需要多少参数(包括偏置参数)?A11,
500,
000B11,
500,
050C1500,
000D11,
500,
001第10题
对一个灰度图像应用如下的过滤器会达到什么效果?10-110-110-1A1实现水平方向边缘检测B1实现竖直方向边缘检测C1实现45度边缘检测D1实现图像对比度检测第七讲作业第1题关于文档的向量表示模型,采用深度学习中的词向量表示模型和传统的单纯基于词频向量表示方法的区别的描述错误的是A传统文档的表示一般采用词袋BOW模型,表示为高维向量B深度学习中的词向量表示模型通常是一种低维度向量C深度学习中的词向量表示模型存在的一个突出问题就是“词汇鸿沟”现象D
传统方法中词向量表示模型存在一个突出问题就是“词汇鸿沟”现象第2题关于利用Word2vec获取词向量,下列说法错误的是A1Word2vec可以将词表示为低维实数值B1Word2vec的向量输出既可以采用二进制存储,也可以普通存储(可以看到词语和对应的向量)C1Word2vec需要利用到较大规模的语料进行训练D1Word2vec不需要利用语料进行训练第3题关于递归神经网络RNN(Socheretal.,2011),下列描述正确的是A1模型的网络结构是通过句法分析得到的B1语料自身富含情感倾向信息C1训练语料采用人工标注D1父节点的向量通过利用组合函数g由其孩子节点的向量得到正确答案:ABCD第4题下列关于递归神经网络RNN(Socheretal.,2011),错误的是A1每个词通常初始化表示为一个d维的向量。由一个随机均匀分布随机采样生成B1所有的词向量被存储在一个词嵌入矩阵中。随着训练的进行,该矩阵将被视为一种参数,因此会被学习调整C1不同长度和句法类型的句子其组合词向量的维度都不同D1树结构基于句法分析器生成第5题下列关于递归神经网络RNN(Socheretal.,2011)的描述正确的是A
假设节点p1的词向量为a,
则需要将其乘以分类矩阵Ws,然后再传给softmax,以进行情感分类概率分布的计算B假设节点p1的词向量为a,
则直接输出作为情感分类概率C
假设节点p1的词向量为a,
则直接传给softmax分类器以计算情感分类概率D标准递归神经网络RNN后期的版本是MV-RNN和RNTN正确答案:AD第6题关于RNTN(Socheretal.,2013),下列正确的是A
该结构的优点是相对于MV-RNN,其效率大幅提升B
标准RNN(递归神经网络)相当于RNTN的一种特殊情况C
采用了张量层矩阵D
其它选项都不对正确答案:ABC第7题神经网络中梯度下降法的训练步骤通常如何?1.根据样本预测值和真实值之间的误差,计算损失函数2.迭代更新,直到模型整体误差小于阈值或者达到预定的迭代次数3.把样本输入给模型,得到预测值4.初始化模型的参数,如权重和偏差等5.反向传播,按照梯度下降的方向改变神经元相应的权重值A1,2,3,4,5B5,4,3,2,1C3,2,1,5,4D4,3,1,5,2第8题下列哪个神经网络结构采用权重共享机制?A卷积神经网络B
循环神经网络C全连接神经网络D
多层感知机正确答案:AB第9题在神经网络中,以下哪种技术可以用于抑制过拟合?
A1DropoutB1正则化C1尽量增加选取特征变量的数量D1尽可能选用复杂的模型正确答案:AB第10题在很多神经网络分类系统中,假设共计有K个类,通常在输出层希望输出样本属于K个类中每个类的概率(在0和1之间),且使得这些概率的和等于1。则下列哪个函数可以用在输出层中以达到上述目的?A1SigmoidB1ReLuC1Softma
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 内科护理考试题及答案
- 办公楼电梯安装协议(2025年)
- 2025年珍爱生命保护环境知识竞赛题库及答案(共90题)
- 2025年医院三基知识考试试题库及答案(共100题)
- 邓州招教笔试真题及答案
- 2025年河南联考考题题库及答案
- 《影像增强检查静脉输注工具规范应用专家共识》解读与总结2026
- 2025年高考政治二模试卷及答案
- 物业采购电表合同范本
- 上汽金融贷款合同范本
- 班组安全基础培训
- 水厂调试方案范本
- 2025年《中外教育史》冲刺押题卷(附答案)
- 物流金融风险管理
- 国开24273丨中医药学概论(统设课)试题及答案
- 国家开放大学电大《当代中国政治制度(本)》形考任务4试题附答案
- 河道临时围堰施工方案
- 2025年广东省公需课《人工智能赋能制造业高质量发展》试题及答案
- 有机肥可行性研究报告
- 2025年-基于华为IPD与质量管理体系融合的研发质量管理方案-新版
- 法律职业资格考试客观题(试卷一)试卷与参考答案(2025年)
评论
0/150
提交评论