湘潭大学 人工智能 机器学习PPT课件.ppt_第1页
湘潭大学 人工智能 机器学习PPT课件.ppt_第2页
湘潭大学 人工智能 机器学习PPT课件.ppt_第3页
湘潭大学 人工智能 机器学习PPT课件.ppt_第4页
湘潭大学 人工智能 机器学习PPT课件.ppt_第5页
已阅读5页,还剩72页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

ArtificialIntelligence AI 人工智能 第七章 机器学习 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 阿法狗通过神经网络学习所有高水平围棋棋谱 大概是历史上有的20万个左右职业棋谱 从而获得了在盘面上如何落子的直觉 类似的深度学习是在近几年出现的 目前 这项科技也有了一些应用 最简单的例子就是通过深度学习识别猫 通过这项识别验证 已经引申出了更多具有实际意义的应用 比如识别某一个图片中是否有癌细胞 某一个铁路沿线上的轨道是否存在磨损 甚至军事作战中 对方的视线中是否有坦克 都可以通过深度学习实现 谷歌的自动驾驶 其中很重要的就是识别道路 交通信号灯 路标等 这都是通过深度学习获得 阿法狗走的是通用学习的道路 它的估值函数 不是专家攻关捣哧出来的 它的作者只是搭了一个基本的框架 一个多层的神经网络 除了围棋最基本的规则外 没有任何先验知识 你可以把它想象成一个新生儿的大脑 一张白纸 然后 直接用人类高手对局的3000万个局面训练它 自动调节它的神经网络参数 让它的行为和人类高手接近 这样 阿法狗就具有了基本的棋感 看到一个局面大致就能知道好还是不好 阿法狗的核心技术还包括策略网络的训练和蒙特卡洛树搜索 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 机器学习是人工智能的核心 通过使机器模拟人类学习行为 智能化地从过去的经历中获得经验 从而改善其整体性能 重组内在知识结构 并对未知事件进行准确的推断 机器学习在科学和工程诸多领域都有着非常广泛的应用 例如金融分析 数据挖掘 生物信息学 医学诊断等 生活中常见的一些智能系统也广泛使用机器学习算法 例如电子商务 手写输入 邮件过滤等 人类的未来生活和工作 还将有机器人参与 机器人的自主学习 更离不开人脸识别技术 2015年3月16日 马云在德国参加活动时 为嘉宾演示了一项 SmiletoPay 的扫脸技术 在网购后的支付认证阶段 通过扫脸取代传统的密码 实现 刷脸支付 机器学习的基本概念 机器学习的两大学派机器学习 人工智能的重要分支构造具有学习能力的智能系统知识 推理 学习手段 统计 逻辑 代数 统计机器学习从大量样本出发 运用统计方法 发现统计规律有监督学习 无监督学习 半监督学习问题 分类 聚类 回归 机器学习的基本概念 机器学习的定义西蒙 Simon 1983 学习就是系统中的适应性变化 这种变化使系统在重复同样工作或类似工作时 能够做得更好 明斯基 Minsky 1985 学习是在人们头脑里 心理内部 有用的变化 学习是一个有特定目的知识获取和能力增长过程 其内在行为是获得知识 积累经验 发现规律等 其外部表现是改进性能 适应环境 实现自我完善等 机器学习是研究如何使用机器来模拟人类学习活动的一门学科 机器学习的基本概念 机器学习的任务根据有限样本集Q 推算这个世界W的模型 使得其对这个世界为真 机器学习的基本概念 机器学习的三要素一致性假设 假设世界W与样本集Q具有某种相同性质机器学习的条件 样本空间划分 将样本集放到一个n维空间 寻找一个决策面 等价关系 使得问题决定的不同对象被划分在不相交的区域 泛化能力 从有限样本集合中获得的规律是否对学习集以外的数据仍然有效 泛化能力决定模型对世界的有效性 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 机器学习策略与基本结构 机器学习的主要策略 按照学习中使用推理的多少 机器学习所采用的策略大体上可分为4种机械学习 记忆学习方法 即把新的知识存储起来 供需要时检索调用 而不需要计算和推理 示教学习 外界输入知识与内部知识的表达不完全一致 系统在接受外部知识时需要推理 翻译和转化 类比学习 需要发现当前任务与已知知识的相似之处 通过类比给出完成当前任务的方案 示例学习 需要从一组正例和反例中分析和总结出一般性的规律 在新的任务中推广 验证 修改规律 机器学习策略与基本结构 学习系统的基本结构影响学习系统设计的要素环境 环境向系统提供信息的水平 一般化程度 和质量 正确性 知识库 表达能力 易于推理 容易修改 知识表示易于扩展 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 归纳学习 归纳学习 InductionLearning 归纳学习是应用归纳推理进行学习的一种方法 归纳学习的模式 实验规划过程通过对实例空间的搜索完成实例选择 并将这些选中拿到的活跃实例提交给解释过程 解释过程对实例加以适当转换 把活跃实例变换为规则空间中的特定概念 以引导规则空间的搜索 归纳学习 归纳学习 InductionLearning 归纳学习是目前研究得最多的学习方法 其学习目的是为了获得新概念 构造新规则或发现新理论 根据归纳学习有无教师指导 可把它分为示例学习 给学习者提供某一概念的一组正例和反例 学习者归纳出一个总的概念描述 规则 并使这个描述适合于所有的正例 排除所有的反例 观察发现学习 概念聚类 按照一定的方式和准则分组 归纳概念机器发现 从数据和事例中发现新知识 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 类比学习 类比推理和类比学习方式类比学习 learningbyanalogy 就是通过类比 即通过对相似事物加以比较所进行的一种学习 类比学习是利用二个不同领域 源域 目标域 中的知识相似性 可以通过类比 从源域的知识 包括相似的特征和其它性质 推导出目标域的相应知识 从而实现学习 例如 1 一个从未开过truck的司机 只要他有开car的知识就可完成开truck的任务 2 若把某个人比喻为消防车 则可通过观察消防车的行为 推断出这个人的性格 类比学习 类比推理和类比学习方式类比学习系统可以使一个已有的计算机应用系统转变为适应于新的领域 来完成原先没有设计的相类似的功能 类比推理过程 回忆与联想 找出当前情况的相似情况选择 选择最相似的情况及相关知识建立对应关系 建立相似元素之间的映射转换 求解问题或产生新的知识 类比学习 类比学习研究类型问题求解型的类比学习 求解一个新问题时 先回忆以前是否求解过类似问题 若是 则以此为依据求解新问题 预测推理型的类比学习传统的类比法 用来推断一个不完全确定的事物可能还有的其他属性因果关系型 已知因果关系S1 A B 如果有A A 则可能有B 满足A B 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 解释学习 解释学习 Explanation basedlearning EBL 解释学习兴起于20世纪80年代中期 根据任务所在领域知识和正在学习的概念知识 对当前实例进行分析和求解 得出一个表征求解过程的因果解释树 以获取新的知识 例如 学生根据教师提供的目标概念 该概念的一个例子 领域理论及可操作准则 首先构造一个解释来说明为什么该例子满足目标概念 然后将解释推广为目标概念的一个满足可操作准则的充分条件 解释学习 解释学习过程和算法米切尔提出了一个解释学习的统一算法EBG 建立了基于解释的概括过程 并用知识的逻辑表示和演绎推理进行问题求解 其一般性描述为 给定 领域知识DT目标概念TC训练实例TE操作性准则OC找出 满足OC的关于TC的充分条件 解释学习 EBG算法可概括为两步 1 构造解释 运用领域知识进行演绎 证明提供给系统的训练实例为什么是满足目标概念的一个实例 例如 设要学习的目标概念是 一个物体 Obj1 可以安全地放置在另一个物体 Obj2 上 即 Safe To Stack Obj1 obj2 领域知识是把一个物体放置在另一个物体上面的安全性准则 解释学习 EBG算法可概括为两步 领域知识 Fragile y Safe To Stack x y 如果y不是易碎的 则x可以安全地放到y的上面Lighter x y Safe To Stack x y 如果x比y轻 则x可以安全地放到y的上面Volume p v Density p d v d w Weight p w 如果p的体积是v 密度是d v乘以d的积是w 则p的重量是wIsa p table Weight p 15 若p是桌子 则p的重量是15Weight p1 w1 Weight p2 w2 Smaller w1 w2 Lighter p1 p2 如果p1的重量是w1 p2的重量是w2 w1比w2小 则p1比p2轻 解释学习 EBG算法可概括为两步 Safe To Stack Obj1 obj2 解释结构 解释学习 EBG算法可概括为两步 2 获取一般性的知识 任务 对上一步得到的解释结构进行一般化的处理 从而得到关于目标概念的一般性知识 方法 将常量换成变量 并把某些不重要的信息去掉 只保留求解问题必须的关键信息 例如 Volume O1 v1 Density O1 d1 v1 d1 w1 Isa O2 table Smaller w1 15 Safe To Stack Obj1 obj2 解释学习 EBG算法可概括为两步 Safe To Stack O1 O2 一般化解释结构 以后求解类似问题时 就可以直接利用这个知识进行求解 提到了系统求解问题的效率 内容提要 第七章 机器学习系统 1 机器学习的基本概念 2 机器学习策略与基本结构 3 归纳学习 4 类比学习 5 解释学习 6 神经网络学习 8 其他 7 知识发现 神经网络学习 神经生理学研究表明 人脑的神经元既是学习的基本单位 同是也是记忆的基本单位 目前 关于人脑学习和记忆机制的研究有两大学派 化学学派 认为人脑经学习所获得的信息是记录在某些生物大分子之上的 例如 蛋白质 核糖核酸 神经递质 就像遗传信息是记录在DNA 脱氧核糖核酸 上一样 突触修正学派 认为人脑学习所获得的信息是分布在神经元之间的突触连接上的 神经网络学习 按照突触修正学派的观点 人脑的学习和记忆过程实际上是一个在训练中完成的突触连接权值的修正和稳定过程 其中 学习表现为突触连接权值的修正 记忆则表现为突触连接权值的稳定 突触修正假说已成为人工神经网络学习和记忆机制研究的心理学基础 与此对应的权值修正学派也一直是人工神经网络研究的主流学派 突触修正学派认为 人工神经网络的学习过程就是一个不断调整网络连接权值的过程 按照学习规则 神经学习可分为 Hebb学习 纠错学习 竞争学习及随机学习等 神经网络学习 Hebb学习Hebb学习的基本思想 如果神经网络中某一神经元同另一直接与它连接的神经元同时处于兴奋状态 那么这两个神经元之间的连接强度将得到加强 反之应该减弱 Hebb学习对连接权值的调整可表示为 wij t 1 表示对时刻t的权值修正一次后所得到的新的权值 取正值 称为学习因子 它取决于每次权值的修正量 xi t xj t 分别表示t时刻第i个和第j个神经元的状态 神经网络学习 纠错学习纠错学习的基本思想 利用神经网络的期望输出与实际输出之间的偏差作为连接权值调整的参考 并最终减少这种偏差 纠错学习是一种有导师的学习过程 最基本的误差修正规则为 连接权值的变化与神经元希望输出和实际输出之差成正比 其联结权值的计算公式为 yj t 为神经元j的实际输出 dj t 为神经元j的希望输出 神经网络学习 竞争学习基本思想 网络中某一组神经元相互竞争对外界刺激模式响应的权力 在竞争中获胜的神经元 其连接权会向着对这一刺激模式竞争更为有利的方向发展 随机学习基本思想 结合随机过程 概率和能量 函数 等概念来调整网络的变量 从而使网络的目标函数达到最大 或最小 他不仅可以接受能量函数减少 性能得到改善 的变化 而且还可以以某种概率分布接受使能量函数增大 性能变差 的变化 感知器学习单层感知器学习算法单层感知器学习的例子BP网络学习Hopfield网络学习 神经网络学习 单层感知器学习实际上是一种基于纠错学习规则 采用迭代的思想对连接权值和阈值进行不断调整 直到满足结束条件为止的学习算法 假设X k 和W k 分别表示学习算法在第k次迭代时输入向量和权值向量 为方便 把阈值 作为权值向量W k 中的第一个分量 对应地把 1 固定地作为输入向量X k 中的第一个分量 即W k 和X k 可分别表示如下 X k 1 x1 k x2 k xn k W k k w1 k w2 k wn k 即x0 k 1 w0 k k 单层感知器学习是一种有导师学习 它需要给出输入样本的期望输出 假设一个样本空间可以被划分为A B两类 定义 功能函数 若输入样本属于A类 输出为 1 否则其输出为 1 期望输出 若输入样本属于A类 期望输出为 1 否则为 1 单层感知器学习算法算法思想 2020 2 5 39 单层感知器学习算法可描述如下 1 设t 0 初始化连接权和阈值 即给wi 0 i 1 2 n 及 0 分别赋予一个较小的非零随机数 作为初值 其中 wi 0 是第0次迭代时输入向量中第i个输入的连接权值 0 是第0次迭代时输出节点的阈值 2 提供新的样本输入xi t i 1 2 n 和期望输出d t 3 计算网络的实际输出 单层感知器学习算法算法描述 4 若y t d t 不需要调整连接权值 转 6 否则 需要调整权值 5 调整连接权值其中 是一个增益因子 用于控制修改速度 其值如果太大 会影响wi t 的收敛性 如果太小 又会使wi t 的收敛速度太慢 6 判断是否满足结束条件 若满足 算法结束 否则 将t值加1 转 2 重新执行 这里的结束条件一般是指wi t 对一切样本均稳定不变 若输入的两类样本是线性可分的 则该算法就一定会收敛 否则 不收敛 单层感知器学习算法算法描述 例用单层感知器实现逻辑 与 运算 解 根据 与 运算的逻辑关系 可将问题转换为 输入向量 X1 0 0 1 1 X2 0 1 0 1 输出向量 Y 0 0 0 1 为减少算法的迭代次数 设初始连接权值和阈值取值如下 w1 0 0 5 w2 0 0 7 0 0 6并取增益因子 0 4 算法的学习过程如下 设两个输入为x1 0 0和x2 0 0 其期望输出为d 0 0 实际输出为 y 0 f w1 0 x1 0 w2 0 x2 0 0 f 0 5 0 0 7 0 0 6 f 0 6 0实际输出与期望输出相同 不需要调节权值 单层感知器学习的例子学习例子 1 4 再取下一组输入 x1 0 0和x2 0 1 期望输出d 0 0 实际输出 y 0 f w1 0 x1 0 w2 0 x2 0 0 f 0 5 0 0 7 1 0 6 f 0 1 1实际输出与期望输出不同 需要调节权值 其调整如下 1 0 d 0 y 0 1 0 6 0 4 0 1 1 1w1 1 w1 0 d 0 y 0 x1 0 0 5 0 4 0 1 0 0 5w2 1 w2 0 d 0 y 0 x2 0 0 7 0 4 0 1 1 0 3取下一组输入 x1 1 1和x2 1 0 其期望输出为d 1 0 实际输出为 y 1 f w1 1 x1 1 w2 1 x2 1 1 f 0 5 1 0 3 0 1 f 0 51 0实际输出与期望输出相同 不需要调节权值 单层感知器学习的例子学习例子 2 4 再取下一组输入 x1 1 1和x2 1 1 其期望输出为d 1 1 实际输出为 y 1 f w1 1 x1 1 w2 1 x2 1 1 f 0 5 1 0 3 1 1 f 0 2 0实际输出与期望输出不同 需要调节权值 其调整如下 2 1 d 1 y 1 1 1 0 4 1 0 1 0 6w1 2 w1 1 d 1 y 1 x1 1 0 5 0 4 1 0 1 0 9w2 2 w2 1 d 1 y 1 x2 1 0 3 0 4 1 0 1 0 7取下一组输入 x1 2 0和x2 2 0 其期望输出为d 2 0 实际输出为 y 2 f 0 9 0 0 7 0 0 6 f 0 6 0实际输出与期望输出相同 不需要调节权值 单层感知器学习的例子学习例子 3 4 再取下一组输入 x1 2 0和x2 2 1 期望输出为d 2 0 实际输出为 y 2 f 0 9 0 0 7 1 0 6 f 0 1 1实际输出与期望输出不同 需要调节权值 其调整如下 3 2 d 2 y 2 1 0 6 0 4 0 1 1 1w1 3 w1 2 d 2 y 2 x1 2 0 9 0 4 0 1 0 0 9w2 3 w2 2 d 2 y 2 x2 2 0 7 0 4 0 1 1 0 3实际上 由与运算的阈值条件可知 此时的阈值和连接权值以满足结束条件 算法可以结束 对此 可检验如下 对输入 00 有y f 0 9 0 0 3 0 1 f 1 0对输入 01 有y f 0 9 0 0 3 0 1 1 f 0 7 0对输入 10 有y f 0 9 1 0 3 0 1 f 0 1 0对输入 11 有y f 0 9 1 0 3 1 1 f 0 2 1 单层感知器学习的例子学习例子 4 4 多层感知器可以解决非线性可分问题 但其隐层神经元的期望输出却不易给出 而单层感知器学习是一种有导师指导的学习过程 因此其学习算法无法直接用于多层感知器 由于多层感知器和BP网络都属于前向网络 并能较好解决多层前馈网络的学习问题 因此 可用BP学习来解决多层感知器学习问题 多层感知器学习问题 BP网络学习的网络基础是具有多层前馈结构的BP网络 为讨论方便 采用如下图所示的三层BP网络 BP网络学习的基础1 三层BP网络 对上述三层BP网络 分别用I j k表示输入层 隐含层 输出层节点 且以以下符号表示 Oi Oj Ok分别表示输入层节点i 隐含层节点j 输出层节点k的输出 Ii Ij Ik 分别表示输入层节点i 隐含层节点j 输出层节点k的输入 wij wjk分别表示从输入层节点i到隐含层节点j 从隐含层节点j输出层节点k的输入节点j的连接权值 j k分别表示隐含层节点j 输出层节点k的阈值 对输入层节点i有 BP网络学习的基础2 网络节点的输入 输出关系 1 2 7 1 对输出层节点有 BP网络学习的基础2 网络节点的输入 输出关系 2 2 7 5 7 4 对隐含层节点有 7 2 7 3 BP网络学习的方式 BP网络学习的基础BP网络的激发函数和学习方式 BP网络的激发函数 7 3 通常采用连续可微的S函数 包括单极 BP网络学习过程是一个对给定训练模式 利用传播公式 沿着减小误差的方向不断调整网络联结权值和阈值的过程 设样本集中的第r个样本 其输出层结点k的期望输出用drk表示 实际输出用yrk表示 其中 drk由训练模式给出 yrk由7 5式计算得出 即有yrk Ork如果仅针对单个输入样本 其实际输出与期望输出的误差为 BP算法的传播公式误差 上述误差定义是针对单个训练样本的误差计算公式 它适用于网络的顺序学习方式 若采用批处理学习方式 需要定义其总体误差 假设样本集中有R个样本 则对整个样本集的总体误差定义为 7 6 7 7 针对顺序学习方式 其联结权值的调整公式为 BP算法的传播公式权值变化量 1 2 7 8 7 9 式中 为增益因子 取 0 1 区间的一个正数 其取值与算法的收敛速度有关 由下式计算 式中 wjk t 和wjk t 1 分别是第t次迭代和t 1次迭代时 从结点j到结点k的联结权值 wjk是联结权值的变化量 为了使联结权值能沿着E的梯度下降的方向逐渐改善 网络逐渐收敛 权值变化量 wjk的计算公式如下 7 10 根据7 2式 可得到输出层节点k的Ik为 BP算法的传播公式权值变化量 1 2 7 11 7 12 令局部梯度 7 13 对该式求偏导数有 将7 10式 7 11式和7 12式代入7 9式有 对 k的计算 须区分k是输出层上还是隐含层上的结点 下面分别讨论 如果结点k是输出层上的结点 则有Ok yk 因此 BP算法的传播公式节点k是输出层节点 1 3 7 14 7 15 由7 6式 有 即 而 7 16 将7 15式和7 16式代入7 14式 有 BP算法的传播公式节点k是输出层节点 2 3 7 17 7 15 由于f Ik f Ik 1 f Ik 且f Ik yk 因此有 再将7 18式代入7 13式 有 根据7 8 对输出层有 7 20 7 18 如果k不是输出层结点 它表示联结权值是作用于隐含层上的结点 此时 有 k j j按下式计算 BP算法的传播公式节点k是隐含层节点 1 3 7 22 由7 3式 Oj f Ij j 因此有 式中 7 21 是一个隐函数求导问题 其推导过程为 由7 12式有 BP算法的传播公式节点k是隐含层节点 2 3 7 24 将7 23式代入7 22式 有 它说明 低层结点的 值是通过上一层结点的 值来计算的 这样 我们就可以先计算出输出层上的 值 然后把它返回到较低层上 并计算出各较低层上结点的 值 由于f Ij f Ij 1 f Ij 故由7 24可得 7 23 7 25 再将7 25式代入7 13式 并将其转化为隐函数的变化量 有 7 3 2BP算法的传播公式节点k是隐含层节点 3 3 再由7 1式和7 3式 有 根据7 8 对隐含层有 7 26 7 28 7 27 对三层BP网络 设wij是输入层到隐层 wjk是隐层到输出层的联结权值 R是样本个数 其计数器为r T是训练过程的最大迭代数 其计数器为t 1 初始化网络及学习参数 将wij wjk j k均赋以较小的随机数 设置 为 0 1 区间的数 置训练样本计数器r 0 误差E 0 误差阈值 为很小的正数 2 随机输入一个训练样本 r r 1 t 0 3 按7 1 7 5式计算隐层神经元的状态和输出层每个节点的实际输出yk 按7 6式计算该样本的误差E BP网络学习算法算法描述 4 检查E 若是 执行下一步 否则 转 8 5 t t 1 6 检查t T 若是 执行下一步 否则 转 8 7 按7 18式计算输出层结点k的 k 按7 25式计算隐层结点j的 j 按7 20式计算wjk t 1 按7 28式计算wij t 1 返回 3 其中 对阈值按联结权值的学习方式修正 即把阈值设想为神经元的联结权值 并假定其输入信号值总是为1 8 检查r R 若是 执行下一步 否则 转 2 9 结束 BP网络学习算法算法描述 BP网络学习算法算法流程 随机输入一个训练样本 置r r 1 t 0 初始化网络及学习参数wij wjk j k R T 置E 0 r 0 对输入样本 计算该样本的每一个yk 计算该样本的误差E E t t 1 t T 计算输出层结点k的 k修正各层的wjk t wij t E 结束 是 否 是 否 否 是 BP网络模型是目前使用较多的一种神经网络 其主要优 缺点如下 优点 1 算法的优点是算法推导清楚 学习精度较高 2 从理论上说 多层前馈网络可学会任何可学习的东西 3 经过训练后的BP网络 运行速度极快 可用于实时处理 缺点 1 由于其数学基础是非线性优化问题 因此可能陷入局部最小区域 2 算法收敛速度很慢 通常需要数千步或更长 甚至还可能不收敛 3 网络中隐含结点的设置无理论指导 上述缺点的解决办法对于局部最小区域问题 通常需要采用模拟退火算法或遗传算法 对于算法收敛慢的问题 其主要原因在于误差是时间的复杂非线性函数 为提高算法收敛速度 可采用逐次自动调整增益因子 或修改激活函数f x 的方法来解决 BP网络学习的讨论 Hopfield网络学习 Hopfield网络学习的过程实际上是一个从网络初始状态向其稳定状态过渡的过程 而网络的稳定性又是通过能量函数来描述的 这里主要针对离散Hopfield网络讨论其能量函数和学习算法 Hopfield网络的能量函数Hopfield网络学习算法 式中 n是网络中的神经元个数 wij是神经元i和神经元j之间的连接权值 且有wij wji vi和vj分别是神经元i和神经元j的输出 i是神经元i的阈值 可以证明 对Hopfield网络 无论其神经元的状态由 0 变为 1 还是由 1 变为 0 始终有其网络能量的变化 E 0 Hopfield的能量函数能量函数定义及性质 能量函数用于描述Hopfield网络的稳定性 其定义为 对网络能量变化的这一结论 我们可以从网络能量的构成形式进行分析 如果假设某一时刻网络中仅有神经元k的输出发生了变化 而其它神经元的输出没有变化 则可把上述能量函数分作三部分来讨论 其中 第一部分是i 1 k 1 第二部分是i k 第三部分是i k 1 n 即网络能量函数可写成如下形式 Hopfield的能量函数能量函数定义及性质 2 7 在这种形式中 可以引起网络能量变化的仅有公式中的如下部分 i 1 k 1 j k 这部分能量与k的输出无关 i 1 k 1 j k 这部分能量与k的输出有关 i k j k 这部分能量与k的输出有关 i k 1 n j k 这部分能量与k的输出无关 i k 1 n j k 这部分能量与k的输出有关 Hopfield的能量函数能量函数定义及性质 3 7 又由于 即 再根据连接权值的对称性 即wij wji 有 Hopfield的能量函数能量函数定义及性质 4 7 即可以引起网络能量变化的部分为 为了更清晰地描述网络能量的变化 我们引入时间概念 假设t表示当前时刻 t 1表示下一时刻 时刻t和t 1的网络能量分别为E t 和E t 1 神经元i和神经元j在时刻t和t 1的输出分别为vi t vj t 和vj t 1 vj t 1 由时刻t到t 1网络能量的变化为 E E t 1 E t 当网络中仅有神经元k的输出发生变化 且变化前后分别为t和t 1 则有

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论