版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、第十章 机器学习,10.1介绍,10.1.1 什么是机器学习 学习是人类具有的一种重要智能行为,但究竟什么是学习,长期以来却众说纷坛。社会学家、逻辑学家和心理学家都各有其不同的看法。按照人工智能大师西蒙(Simon,1983)的观点,学习就是系统在不断重复的工作中对本身能力的增强或者改进,使得系统在下一次执行同样任务或相类似的任务时,会比现在做得更好或效率更高。西蒙对学习给出的定义本身,就说明了学习的重要作用。,10.1介绍,另一位人工智能大师Minsky(1985),也给出了学习的定义:学习是在我们头脑中(心理内部)进行有用的变化。 西洋跳棋学习问题的解释 E,和自己下棋 T,参与比赛 P,
2、比赛成绩(或赢棋能力,击败对手的百分比) 手写识别学习问题 机器人驾驶学习问题,10.1.1 什么是机器学习,机器学习是研究如何使用机器来模拟人类学习活动的一门学科。稍为严格的提法是:机器学习是一门研究机器获取新知识和新技能,并识别现有知识的学问。,10.1.1 什么是机器学习,机器学习系统的特征 目的性 结构性 有效性 开放型,10.1.1 什么是机器学习,机器学习实现的困难1.预测难2.归纳推理3.判断难,10.1.1机器学习的系统模型,机器学习系统模型,10.1.2 机器学习的研究现状,机器学习是研究如何使用机器来模拟人类学习活动的一门学科。稍为严格的提法是:机器学习是一门研究机器获取新
3、知识和新技能,并识别现有知识的学问。,10.1.2 机器学习的研究现状,1.第一阶段是在50年代中叶到60年代中叶,属于热烈时期。在这个时期,所研究的是“没有知识”的学习,即“无知”学习;其研究目标是各类自组织系统和自适应系统;指导本阶段研究的理论基础是早在40年代就开始研究的神经网络模型。在这个时期,我国研制了数字识别学习机. 2.第二阶段在60年代中叶至70年代中叶,被称为机器学习的冷静时期。本阶段的研究目标是模拟人类的概念学习过程,并采用逻辑结构或图结构作为机器内部描述。这个时期正是我国“史无前例”的十年,对机器学习的研究不可能取得实质进展。,10.1.2 机器学习的研究现状,3.第三阶
4、段从70年代中叶至80年代中叶,称为复兴时期。在这个时期,人们从学习单个概念扩展到学习多个概念,探索不同的学习策略和各种学习方法。本阶段已开始把学习系统与各种应用结合起来,中国科学院自动化研究所进行质谱分析和模式文法推断研究,表明我国的机器学习研究得到恢复。1980年西蒙来华传播机器学习的火种后,我国的机器学习研究出现了新局面。 4.机器学习的最新阶段始于1986年。一方面,由于神经网络研究的重新兴起,另一方面,对实验研究和应用研究得到前所未有的重视。我国的机器学习研究开始进入稳步发展和逐渐繁荣的新时期。,10.1.3 机器学习的研究方法,机器学习分类按 应用领域 知识表示 推理策略 综合多种
5、因素,10.1.3 机器学习的研究方法,机器学习推理策略分类 1.机械式学习(记忆学习),即向机器直接输入新知识这种学习方法不需要进行任何推理或知识转换,将知识直接装进机器中。也就是将专家知识总结成规则,用计算机语言加以描述、实现。有多少写多少,系统本身没有学习过程,对知识不做任何修改,只有使用。 2.根据示教学习(传授学习、指点学习)从老师或其它有结构的事物获取知识。要求系统在原有知识结构的基础上将输入的(新)知识转换成它本身的内部表示形式。并把新的信息和它原有的知识有机地结合为一体。系统初始知识结构可以是以机械式学习方式得到,也可以是通过其它学习方式得到。,10.1.3 机器学习的研究方法
6、,机器学习推理策略分类 3.通过类推学习(演绎学习)系统找出现有知识中所要产生的新概念或技能十分类似的部分。将它们转换或扩大成适合新情况的形式,从而取得新的事实或技能。该种学习方法是大量知识的总结、推广。4.从例子中学习(归纳学习)给学习者提供某一概念的一组正例和反例,学习者归纳出一个总的概念描述,使它适合于所有的正例且排除所有的反例。基于实例的学习方法是目前研究较多的方法之一。本课程将对该类方法作比较深入的讨论。,10.1.3 机器学习的研究方法,机器学习推理策略分类 5.类比学习类比学习是演绎学习与归纳学习的组合。类比学习过程中匹配不同论域的描述、确定公共的结构。以此作为类比映射的基础。寻
7、找公共子结构是归纳推理,而实现类比映射是演绎推理。,10.2 归纳学习,10.2.1 归纳学习的基本概念 1)归纳(induction)是人类拓展认识能力的重要方法,是一种从个别到一般的,从部分到整体的推理行为。 (2)归纳推理是应用归纳方法,从足够多的具体事例中归纳出一般性知识,提取事物的一般规律;它是一种从个别到一般的推理。 (3)归纳学习(induction learning)是应用归纳推理进行学习的一种方法。根据归纳学习有无教师指导,可把它分为示例学习和观察与发现学习。前者属于有师学习,后者属于无师学习。,10.2 归纳学习,归纳学习的一般模式为: 给定:(1) 观察陈述(事实)F,用
8、以表示有关某些对象、状态、过程等的特定知识;(2) 假定的初始归纳断言(可能为空);(3) 背景知识,用于定义有关观察陈述、候选归纳断言以及任何相关问题领域知识、假设和约束,其中包括能够刻画所求归纳断言的性质的优先准则。 求:归纳断言(假设)H,能重言蕴涵或弱蕴涵观察陈述,并满足背景知识。 假设H永真蕴涵事实F,说明F是H的逻辑推理,则有: H | F (读作H特殊化为F) 或 F | H (读作F一般化或消解为H) 这里,从H推导F是演绎推理,因此是保真的;而从事实F推导出假设H是归纳推理,因此不是保真的,而是保假的。,10.2 归纳学习,归纳学习的一般模式为: 给定:(1) 观察陈述(事实
9、)F,用以表示有关某些对象、状态、过程等的特定知识;(2) 假定的初始归纳断言(可能为空);(3) 背景知识,用于定义有关观察陈述、候选归纳断言以及任何相关问题领域知识、假设和约束,其中包括能够刻画所求归纳断言的性质的优先准则。 求:归纳断言(假设)H,能重言蕴涵或弱蕴涵观察陈述,并满足背景知识。 假设H永真蕴涵事实F,说明F是H的逻辑推理,则有: H | F (读作H特殊化为F) 或 F | H (读作F一般化或消解为H) 这里,从H推导F是演绎推理,因此是保真的;而从事实F推导出假设H是归纳推理,因此不是保真的,而是保假的。,10.2 归纳学习,枚举归纳 事物类A的具体事物a1,an,都有
10、有属性P, 当n足够大时,有: 事物类A中所有事物都有属性 联想归纳 事物A有属性a1,an,事物B有属性a1,an 当n足够大时,有: 事物A有属性an+1,事物B也有an+1 类比归纳 逆推理归纳 消除归纳,10.2.2 版本空间学习,示例学习(learning from examples)又称为实例学习,它是通过环境中若干与某概念有关的例子,经归纳得出一般性概念的一种学习方法。 在这种学习方法中,外部环境提供的是一组例子(正例和反例), 示例学习就是要从这些特殊知识中归纳出适用于更大范围的一般性知识,以覆盖所有的正例并排除所有反例 形成知识的方法: 1。 变量代替产量 示例1: 花色(c
11、1,梅花)花色(c2,梅花) 花色(c3,梅花) 花色(c4,梅花)- 同花(c1,c2,c3,c4) 示例2: 花色(c1,红桃)花色(c2,红桃) 花色(c3,红桃) 花色(c4,红桃)- 同花(c1,c2,c3,c4) 得知识:花色(c1,x)花色(c2,x)花色(c3,x)花色(c4,x)- 同花(c1,c2,c3,c4) 2。舍弃条件 3。增加操作,10.2.3 基于决策树的学习Decision Tree,一、什么是决策树学习? 决策树技术是用于分类和预测的主要技术,决策树学习是以实例为基础的归纳学习算法。它着眼于从一组无次序、无规则的事例中推理除决策树表示形式的分类规则。它采用自顶
12、向下的递归方式,在决策树的内部节点进行属性值的比较并根据不同属性判断从该节点向下的分支,然后进行剪枝,最后在决策树的叶节点得到结论。所以从根到叶节点就对应着一条合取规则,整棵树就对应着一组析取表达式规则。基于决策树的分类有很多实现算法。ID3和C4.5是较早提出并普遍使用的决策树算法。,10.2.3 基于决策树的学习Decision Tree,一、什么是决策树学习? 决策树提供了一种展示类似在什么条件下会得到什么值这类规则的方法。 决策树学习是一种逼近离散值目标函数的方法,这种方法将从一组训练数据中学习到的函数表示为一棵决策树。 决策树学习是应用最广泛的归纳推理算法之一,已经被成功地应用到从学
13、习医疗诊断到学习评估贷款申请的信用风险的广阔领域。 决策树对比神经元网络的优点在于可以生成一些规则。,10.2.3 基于决策树的学习,决策树方法的起源是概念学习系统CLS,然后发展到ID3方法而为高潮,最后又演化为能处理连续属性的C4.5。有名的决策树方法还有CART和Assistant。决策树学习是应用最广的归纳推理算法之一 是一种逼近离散值函数的方法 很好的健壮性 能够学习析取表达式 ID3, Assistant, C4.5 搜索一个完整表示的假设空间 归纳偏置是优先选择较小的树 决策树表示了多个if-then规则,决策树的表示,二、决策树的表示 通过把实例从根节点排列到某个叶子节点来分类
14、实例。 叶子节点即为实例所属的分类 树上每个节点说明了对实例的某个属性的测试 节点的每个后继分支对应于该属性的一个可能值 决策树通过把实例从根节点排列到某个叶子节点来分类实例,叶子节点即为实例所属的分类。树上的每一个节点说明了对实例的某个属性的测试,并且该节点的每一个后继分支对应于该属性的一个可能值 决策树代表实例属性值约束的合取的析取式。从树根到树叶的每一条路径对应一组属性测试的合取,树本身对应这些合取的析取,二、决策树的表示,上图绘出了一棵典型的学习到的决策树。这棵决策树根据天气情况分类“星期六上午是否适合打网球”。,为了提高决策树的可读性,可以将学习到的决策树表示为多个 IFTHEN 规
15、则。 如上面的决策树可以表示成以下的规则集: Rule 1: IF Outlook=Sunny AND Humidity=High THEN No Rule 2: IF Outlook=Sunny AND Humidity=Normal THEN Yes Rule 3: IF Outlook=Overcast THEN Yes Rule 4: IF Outlook=Rain AND Wind=Strong THEN No Rule 5: IF Outlook=Rain AND Wind=Strong THEN Yes,三、决策树学习的适用问题,适用问题的特征 实例由“属性-值”对表示 目标函数
16、具有离散的输出值 可能需要析取的描述 训练数据可以包含错误 训练数据可以包含缺少属性值的实例 问题举例 根据疾病分类患者 根据起因分类设备故障 根据拖欠支付的可能性分类贷款申请 分类问题 核心任务是把样例分类到各可能的离散值对应的类别,三、决策树学习的适用问题,通常决策树学习最适合具有以下特征的问题: . 事例是由一系列固定的属性(如Temperature)和它们的值(例 如Hot)来描述的。例事例: 最简单决策数学习要求每个属性取少数的离散的值(例如Hot,Mild,Cold);扩展的算法允许处理值域为实数的属性。 . 目标函数具有离散的输出值。 . 训练数据可以包含错误。决策树学习方法对噪
17、声数据具有很好 的健壮性,无论是训练样例所属的分类错误还是描述这些样例的属性值错误。 . 训练数据可以包含缺少属性值的实例。 这些问题的核心任务都是要把样例分类到各可能的离散值对应的类别中,称之为分类问题(classification problem)。,四、 基本的决策树学习算法,The TDIDT family tree,ID3(Quinlan,1979,1985)是一种自顶向下增长树的贪婪算法,在每个节点选取能最好的分类样例的属性。继续这个过程直到这棵树能完美分类训练样例,或所有的属性都已被使用过。,Hunts Concept Learning System framework, CLS
18、 constructs a decision tree that attempts to minimize the cost of classifying an object.,ACLS(Paterson and Niblett) 是ID3的推广。允许用于描述事例的每个属性取任意多个整数值。而ID3和CLS只允许每个属性取有限个离散值。使得算法可以处理图像识别等更复杂问题。,ASSISTANT(Kononenko,Bratko and Roskar)允许事例的属性取连续的实数值;某些分类值可以属于另一个分类;还可以从所提供的数据中选择一个“较好”的训练集。用于医学诊断问题。,CLS算法,(1)
19、 如果C中全部实例为正例,则建立一个YES结点,并且停止。如果C中全部实例为反例,则建立一个NO结点,并且停止。否则选择一个属性A, 根据它的值v1, , vn 建立决策树。 (2) 根据值V,将训练实例$C$划分为子集C1, , Cn。 (3) 对每个集合Ci递归地应用此算法。,CLS算法,CLS算法可以产生所有可能的决策树,正确分类训练实例,并能选择最简单的决策树。但是,它的学习问题不能太大。为了克服这种限止,ID3采用训练实例的子集,即可以选择窗口来形成决策树。这种树可以正确分类窗口中的所有对象。然后,使用该树可以分类训练集中的所有其它对象。如果该树对所有对象给以正确的解答,那么,它对整
20、个训练集是正确的,算法就结束。如果不是这样,选择一个例外加到窗口继续处理,直到发现正确的决策树为止。,ID3算法,大多数决策树学习算法是一种核心算法的变体 采用自顶向下的贪婪搜索遍历可能的决策树空间 ID3是这种算法的代表 基本的ID3算法通过自顶向下构造决策树来进行学习。构造过程是从“那一个属性将在树的根节点进行测试?”这个问题开始的。为了回答这个问题,使用 (信息增益)来确定每一个实例属性单独分类训练样例的能力。分类能力最好的属性将被选作树的根节点的测试。然后为根节点属性的每个可能值产生一个分枝,并把训练样例排列到该属性值对应的分枝之下。然后重复整个过程,用每个分支节点关联的训练样例来选取
21、在该点被测试的最佳属性。直到终止条件得到满足。,ID3算法,ID3的思想 自顶向下构造决策树 从“哪一个属性将在树的根节点被测试”开始 使用统计测试来确定每一个实例属性单独分类训练样例的能力 ID3的过程 分类能力最好的属性被选作树的根节点 根节点的每个可能值产生一个分支 训练样例排列到适当的分支 重复上面的过程,ID3算法,创建树的Root结点 如果Examples都为正,那么返回label=+中的单结点Root 如果Examples都为反,那么返回lable=-单结点树Root 如果Attributes为空,那么返回单节点树Root,lable=Examples中最普遍的目标属性值 否则开
22、始 AAttributes中分类能力最好的属性 Root的决策属性A 对于每个可能值 在Root下加一个新的分支对应测试A=vi 令Example-vi为Examples中满足A属性值为vi的子集 如果Examples-vi为空 在这个新分支下加一个叶子结点,节点的lable=Examples中最普遍的目标属性值 否则在这个新分支下加一个子树ID3(example-vi,target-attribute,attributes-|A| 结束 返回 Root,属性选择,构造好的决策树的关键在于如何选择好的逻辑判断或属性。对于同样一组例子,可以有很多决策树能符合这组例子。人们研究出,一般情况下或具有
23、较大概率地说,树越小则树的预测能力越强。要构造尽可能小的决策树,关键在于选择恰当的逻辑判断或属性。由于构造最小的树是NP-难问题,因此只能采取用启发式策略选择好的逻辑判断或属性。,用熵度量样例的均一性(纯度),信息增益 用来衡量给定的属性区分训练样例的能力 ID3算法在增长树的每一步使用信息增益从候选属性中选择属性 用熵度量样例的均一性 熵刻画了任意样例集的纯度 给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个布尔型分类的熵为 Entropy(S)=-p+log2p+ - p-log2p- 信息论中对熵的一种解释,熵确定了要编码集合S中任意成员的分类所需要的最少二进制位数 更一般地
24、,如果目标属性具有c个不同的值,那么S相对于c个状态的分类的熵定义为 Entropy(S)=,用熵来度量训练样例的均一性即纯度 . S表示训练集合 . 分类属性有c个不同的分类值 . 则S相对于c个状态的分类的熵定义为:,熵度量的是集合S的纯度,我们以分类值只有,两类的分类问题为例分析如图:,用信息增益来度量期望的熵降低,属性A 训练集合S Values(A) 属性A的所有可能值的集合 Sv是S中属性A的值为v的子集 则属性A相对样例集合S的信息增益定义为: Gain(S,A)是由于知道属性A的值而导致的期望熵减少。换句话来说,Gain(S,A)是由于给定属性A的值而得到的关于目标函数值的信息
25、。,Whether go to play tennis,Outlook: Sunny, Rain, Overcast Humidity: High, Normal Wind: Strong, Weak Temp: Hot, Mild, Cool,那个是最好的属性?,Entropy(S) = 0.940,那个是最好的属性?,Gain(S,Outlook) = 0.245 Gain(S,Humidity) = 0.151 Gain(S,Wind) = 0.048 Gain(S,Temp) = 0.029,Which attributes should be tested here?,选择下一个属性
26、,Ssunny = D1,D2,D8,D9,D11 Gain (Ssunny, Humidity) =0 .970 Gain (Ssunny, Temp) = 0.570 Gain (Ssunny, Wind)= 0.019,1,2,8,9,11,3,7,12,13,9,11,1,2,8,4,5,6,10,14,进一步的问题,其它的属性选择方法 训练数据噪声处理 训练数据中属性值为空的属性的处理 过分拟合问题研究 剪枝算法研究 训练集合的选取 ,C4.5 Extensions,C4.5 is an extensions of ID3 accounts for Depth-first strat
27、egy is used Unavailable values Ex: only given Outlook to be Sunny Continuous attribute value ranges Ex: humidity is greater than 75 Pruning of decision trees Rule derivation,Decision Trees: Training,C4.5, Quinlan, 1993 Generate_tree(R, C, T) / R: set of non-categorical attribute / C: categorical att
28、ribute, T: training data if T has the same categorical value then return a single node with the value if R= then return a single node with most frequent categorical value in T A = attribute with highest information gain, Gain(T,A) among R Let A1, A2, ., Am the attribute values of A Let T1, T2, ., Tm
29、 the subsets of T partitioned by of Ai return a node with A and m links as follows for i = 1 to m do Generate_tree(R-A, C, Ti),决策树ID4,1986, Schlimmer 和 Fisher 设计了ID4学习算法, 是一种递增式学习算法。他们修改ID3算法,在每个可能的决策树结点创建一系列表。每个表由全部未检测属性值和每个值的正例和反例数组成。当处理一个新例时,每个属性值的正例或反例递增计量。,决策树ID4,输入: 决策树,一个实例 输出: 决策树 (1) 若该实例是正
30、例,正例数加1,否则,反例数加1。 (2) 如果实例全部为正例或反例,则返回决策树。 (3) 否则 (a) 计算期望信息分数。 (b) 实例中出现的每个属性、每个值,使之递增正例数或者反例数。 (c) 计算全部属性的信息分数。,决策树ID4,(d) 如果没有根,或者最大属性不在根结点,则创建新树。 (i) 如果最大属性是 x2 依赖关系,那么用它作为这棵树的根结点。 (ii) 链接根到每个根属性的值 (e) 跳转到步骤(1),下面创建的子树链到该实例的根属性值。,决策树ID5,在ID4的基础上Utgoff提出了ID5学习算法(Utgoff 1988)。ID5 与ID4的差别在于检测属性。ID5
31、抛弃旧的检测属性下面的子树,从下面选出检测属性形成树。这种方法的优点是在树操纵时重新计算正例和反例的数,不要对实例重新处理。,ID5算法,(1) 对结点每个可能的检测属性,修改属性的正例和反例数,以及修改该属性值观察值的正例数和反例数。 (2) 如果非检测属性的最低信息论测度低于当前的检测属性,则将该检测属性提上来,重新构造决策树。 (3) 在给定结点仅观察到正例或反例,那么保存其余训练实例。结束停止。 (4) 在实例描述中,对所希望检测属性值下面的决策树进行递归修改。,ID5属性提升算法,(1) 递归地提升属性到最近子树的根结点。 (2) 对每个子树的分支值,将旧的检测属性推到新属性下,构造
32、新的决策树。 这样,形成一组子树,每个根结点都是所希望的检测属性。 (3) 合并子树,形成决策树,其根结点是所希望的检测属性。,机器学习解释学习,解释学习:不依赖训练例子和归纳,而通过对问题求解,得出求解过程的因果解释树,以获得新的知识(主要是控制知识),并利用对其的解释阐述而学习到新的知识. EBL(基于解释的方法)算法: 1.解释,即根据领域理论的知识建立一个解释,以证明训练实例如何满足目标概念定义.目标概念的初始描述通常是不可操作的. 2.概括,即对1的证明树进行处理,对目标概念进行回归,包括用变量代替常量以及必要的新项目合成,以得到所期望的概念描述,解释学习,解释学习(Explanat
33、ion-Based Learning, 简称EBL)是一种分析学习方法,在领域知识指导下, 通过对单个问题求解实例的分析, 构造出求解过程的因果解释结构, 并获取控制知识,以便用于指导以后求解类似问题。,解释学习,1983年美国Illinois大学的DeJong提出。 1986年, Mitchell, Keller 和 Kedar-Cabelli 提出了解释的泛化(Explanation-Based Generalization, 简称EBG)的统一框架, 1986年DeJong 和Mooney提出全局取代解释泛化Explanation Generalization using Global
34、Substitutions, 缩写EGGS) 方法 1987年卡耐基-梅隆大学的Minton 和 Carbonell提出解释特化 (Explanation-Based Specialization,简写EBS)学习方法,为什么要用EBL,解释为什么一个想法是好的比提出一个想法容易得多 一旦理解了一件事,就可以泛化并重用于其它情况 从例子中抽象出通用规则 通过对一棵证明树的常量变量化, EBL可以同时创建两棵证明树,基本的EBL,给定一个例子,使用背景知识构建一棵证明树 同时,为可变化的目标构建一棵泛化证明树 构建一条新规则(叶子 = 根) 去掉所有与目标中变量真正无关的条件,解释学习,(1)通
35、过分析一个求解实例来产生解释结构; (2)对该解释结构进行泛化, 获取一般的控制规则。,解释的含义,对所产生的结论的推理过程作详细说明,以增加系统的可接受性; 对错误决策进行追踪,发现知识库中知识的缺陷和错误的概念; 对初学的用户进行训练。,解释的方法,预制文本法。预先用自然语言写好,并插入程序中; 执行追踪法。遍历目标树,通过总结与结论相关的目标,检索相关规则,以说明结论是如何得到的; 策略解释法。明确表示控制知识,即用元知识概括地描述,与领域规则完全分开。从策略的概括表示中产生解释,能为用户提供问题求解策略的解释。,EBL的效率,选择一条通用规则 太多规则 - 推理太慢 目标驱动 - 极大
36、地提高了速度 尽可能的通用 可操作性 - 一个子目标是可操作的,意思是容易解决 可操作性和通用性之间的平衡 对EBL学习效率的实验分析,解释学习模型,概念描述空间,概念空间,例子空间,D1 不可操作的,可操作 D2,C1,I1,I2,I3,解释学习的空间描述,可操作特性,系 统,可 变 性,粒 度,确 定 性,GENESIS,动态,二进制,不保证,LEX2,动态,二进制,不保证,SOAR,动态,二进制,不保证,PRODIGY,静态,连续,不保证,MetaLEX,动态,连续,保证,解释学习的模型,EXE,概念描述的转换,结果是否可操作,D1,D2,KB,PS,Y,N,解释泛化学习方法,解释泛化学
37、习问题: 已知: 目标概念 训练例 领域理论 可操作性标准 欲求: 训练实例的泛化,使之满足以下条件 是目标概念的充分概念描述 满足可操作性标准,EBL方法,解释 利用领域理论知识解释为什么训练例满足目标概念的定义 泛化 确定解释成立的最通用的条件,例子,目标概念:一对物体,SAFE-TO-STACK(x,y),其中STACK(x,y)NOT(FRAGILE(y)LIGHTER(x,y)。 训练实例: ON(OBJ1,OBJ2) ISA(OBJ1,BOX) ISA(OBJ2,ENDTABLE) COLOR(OBJ1,RED) COLOR(OBJ2,BLUE) VOLUME(OBJ1,1) DENSITY(OBJ1,.1) ,领域知识: VOLUME(p1,v1)DENSITY(p1,d1)WEIGHT(p1,v1*d1) WEIGHT(p1,w1)WEIGHT(p2,w2)LESS(w1,w2)LIGHTER(p1,p2) ISA(p1,ENDTABLE)WEIGHT(p1,5)(default) LESS(.1,5) 可操作标准:概念定义必须要用描述实例中的谓词,或者选自领域知识易于评测的谓词。 确定: 训练实例的泛化是对目标概念给以充分定义,并且满足可操作性标准。,SAFE-TO-STACK(OBJ1,OBJ
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- GB/T 15792-2026水稻二化螟测报调查规范
- 2024年海南省导游资格考试现场考试的语言技巧考试试题库
- 2024年税务顾问聘请合同
- 2024高考作文备考:高考模拟作文题立意专家解析
- 大学英语考试复习资料北京成人本科学士学位分类模拟题1
- 钢筋工程专项施工方案
- 体育赛事策划与管理 期中、期末测试题及答案
- 202南宁马拉松赛事宣传推广合同协议合同二篇
- 国际基础与金融 24
- 国际基础与金融 4
- 物流公司仓管职责【11篇】
- 新课标小学英语阅读100篇
- DL∕T 1498.2-2016 变电设备在线监测装置技术规范 第2部分:变压器油中溶解气体在线监测装置
- 破产债权申报登记表
- 铁工电〔2023〕54号国铁集团关于印发《普速铁路工务安全规则》的通知
- JJG 86-2011 标准玻璃浮计
- 尺寸链的计算表格
- 课堂游戏惩罚-课件
- 碟形弹簧计算程序-中文
- 宇虹化学有限公司年产100吨颜料红177#等搬迁技改项目立项环境影响评估报告书
- 2023年考研考博-考博英语-河北工业大学考试历年真题摘选含答案解析
评论
0/150
提交评论