(完整word版)人工智能第7章参考答案_第1页
(完整word版)人工智能第7章参考答案_第2页
(完整word版)人工智能第7章参考答案_第3页
(完整word版)人工智能第7章参考答案_第4页
免费预览已结束,剩余1页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、第7章 机器学习参考答案7-6设练习例子集如下表所示:序号属性分类X1X21TT+2TT+3TF-4FF+5FT6FT请用ID3算法完成其学习过程.解:设根节点为S,尽管它包含了所有的练习例子,但却没有包含任何分类信息,因此具 有最大的信息痼.即:H(S)= - (P(+)log 2 P(+) + P(-)log2 P(-)式中P(+)=3/6, P(-)=3/6分别是决策方案为“ +或“-时的概率.因此有H(S)= - (3/6)log 2(3/6) + (3/6)log 2(3/6)=1根据ID3算法,需要选择一个能使S的期望痼为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个

2、属性的条件痼:H(S|xi)= ( |St| / |S|)* H(St) + ( |Sf| / |S|)* H(Sf)其中,T和F为属性为的属性值,St和*分别为Xi=T或Xi=F时的例子集,|S卜| St|和|Sf|分别 为例子集S、St和Sf的大小.下面先计算S关于属性X1的条件痼:在此题中,当xi=T时,有:St=1 , 2, 3当xi=F时,有:Sf=4 , 5, 6其中,St和Sf中的数字均为例子集S中的各个例子的序号,且有|S|=6, |St|=|Sf|=3.由St可知,其决策方案为“ +或“-的概率分别是:Pst(+)=2/3Pst (-)=1/3因此有:H(St)= - (Ps

3、t (+)log2 Pst (+) + Pst (-)log2 Pst (-)=-(2/3)log 2(2/3) + (1/3)log 2(1/3)=0.9183再由Sf可知,其决策方案为“ +或“-的概率分别是:Psf (+)=1/3Psf (-)=2/3那么有:H (Sf)= - (Psf (+)log2 Psf (+) + Psf (-)log2 Psf (-)=-(1/3)log 2(1/3)+ (2/3)log 2(2/3)=0.9183将H(St)和H (Sf)代入条件痼公式,有:H(S|X1)=(|St|/|S|)H(St)+ (|Sf|/|S|)H(Sf)=(3/6) * 0.

4、9183 + (3/6)* 0.9183=0.9183下面再计算S关于属性X2的条件痼:在此题中,当X2=T时,有:St=1 , 2, 5, 6当X2=F时,有:Sf=3 , 4其中,St和Sf中的数字均为例子集S中的各个例子的序号,且有|S|=6,|St|=4, |Sf|=2.由St可知:Pst (+) = 2/4P st (-) = 2/4那么有:H(St)= - (P st (+)log2 P st (+) + P st (-)log 2 P st (-)=-(2/4)log 2(2/4) + (2/4)log 2(2/4)=1再由Sf可知:P sf (+)=1/2P sf (-)=1/

5、2那么有:H(S f)= - (P(+)log 2 P(+) + P(-)log 2 P(-)=-(1/2)log 2(1/2)+ (1/2)log 2(1/2)=1将H(St)和H (Sf)代入条件痼公式,有:H(S|X2)=(|St|/|S|)H(St)+ (|Sf|/|S|)H(Sf)=(4/6) * 1 + (2/6) * 1=1可见,应该选择属性X1对根节点进行扩展.用X1对S扩展后所得到的局部决策树如以下图所示.扩展X1后的局部决策树在该决策树中,其2个叶节点均不是最终决策方案,因此还需要继续扩展.而要继续扩展,只有属性X2可选择,因此不需要再进行条件痼的计算,可直接对属性X2进行

6、扩展.对X2扩展后所得到的决策树如以下图所示:扩展X2后得到的完整决策树7-9假设wi(0)=0.2, W2(0)=0.4, 0 (0)=0.3, r =0.4,请用单层感知器完成逻辑或运算的学习过 程.解:根据“或运算的逻辑关系,可将问题转换为:输入向量:Xi=0, 0, 1, 1X2=0, 1, 0, 1输出向量:Y=0, 1, 1, 1由题意可知,初始连接权值、阈值,以及增益因子的取值分别为:W1(0)=0.2, W2(0)=0.4, 0 (0)=30.门=0.4即其输入向量X(0)和连接权值向量 W(0)可分别表示为:X(0)=(-1, X1 (0), X2 (0)W(0)=(.(0W

7、 1(0), W2 (0)根据单层感知起学习算法,其学习过程如下:设感知器的两个输入为X1(0)=0和X2(0)=0,其期望输出为d(0)=0,实际输出为:y(0)=f(W 1(0) X1(0)+ W2(0) X2(0)- 0 (0)=f(0.2*0+0.4*0-0.3)=f(-0.3)=0实际输出与期望输出相同,不需要调节权值.再取下一组输入:X1(0)=0和X2(0)=1,其期望输出为d(0)=1,实际输出为:y(0)=f(w 1(0) X1(0)+ W2(0) X2(0)- 0 (0)=f(0.2*0+0.4*1-0.3)=f(0.1)=1实际输出与期望输出相同,不需要调节权值.再取下一

8、组输入:X1(0)=1和X2(0)=0,其期望输出为d(0)=1,实际输出为:y(0)=f(w 1(0) xi(0)+ W2(0) X2(0)- 0 (0)=f(0.2*1+0.4*0-0.3)=f(-0.1)=0实际输出与期望输出不同,需要调节权值,其调整如下:0 (1)= 0 (0)+ y (d(0)- y(0)*(-1)=0.3+0.4*(1-0)*(-1)= -0.1wi(1)=wi(0)+ r (d(0)- y(0)x 1(0)=0.2+0.4*(1-0)*1=0.6W2(1)=W2(0)+ r (d(0)- y(0)x 2(0)=0.4+0.4*(1-0)*0=0.4再取下一组输入

9、:X1(1)=1和X2(1)=1,其期望输出为d(1)=1 ,实际输出为: y(1)=f(w 1(1) X1(1)+ W2(1) X2(1)- 0 (1)=f(0.6*1+0.4*1+0.1)=f(1.1)=1实际输出与期望输出相同,不需要调节权值.再取下一组输入:X1(1)=0和X2(1)=0,其期望输出为d(0)=0,实际输出为: y(1)=f(w 1(1) X1(1)+ w2(1) X2(1)- 0 (1)=f(0.6*0+0.4*0 + 0.1)=f(0.1)=1实际输出与期望输出不同,需要调节权值,其调整如下:0 (2)= 0 (1)+ Y (d(1)- y(1)*(-1)= -0.

10、1+0.4*(0-1)*(-1)= 0.3w1(2)=w 1(1)+ r (d(1)- y(1)X 1(1)=0.6+0.4*(0-1)*0=0.6w2(2)=w2(1)+ r (d(1)-y(1)X2(1)=0.4+0.4*(0-1)*0=0.4再取下一组输入:X1(2)=0和X2(2)=1,其期望输出为d(2)=1,实际输出为:y(2)=f(w 1(2) X1(2)+ w2(2) X2(2)- 0 (2)=f(0.6*0+0.4*1 - 0.3)=f(0.1)=1实际输出与期望输出相同,不需要调节权值.再取下一组输入:X1(2)=1和X2=0,其期望输出为d(2)=1 ,实际输出为: y(2)=f(w 1(2) X1(2)+ w2(2) X2(2)- 0 (2)=f(0.6*1+0.4*0 - 0.3)=f(0.3)=1实际输出与期望输出相同,不需要调节权值.再取下一组输入:X1(2)=1和X2(2)=1,其期望输出为d(2)=1,实际输出为: y(2)=f(w 1(2) X1(2)+ w2(2) X2(2)- 0 (2)=f(0.6*1+0.4*1 - 0.3)=f(0.7)=1实际输出与期望输出相同,不需要调节权值.至此,学习过程结束.最后的得到的阈值和连接权值分别为:0 (2)= 0.3w1(2)=0.6w2(2)=

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论