




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
神经网络的数学基础1信号和权值向量空间将神经网络的输入、输出以及权值矩阵的行作为向量看待是非常有好处的。这些都是中的向量。是标准的n维欧基里德空间2线性向量空问3如果已经习惯于将向量看作是一列数字,那么这两个元素的确是奇怪的向量。但是请记住:一个集合只要满足上述10个条件,就可以被认为是一个向量空间。例如考虑最高阶数小于或等于2的多项式集合此集合的两个元素是:5由于两个连续函数的和仍然是一个连续函数,一个标量乘以一连续函数仍然是一个连续函数,所以集合也是一个向量空间这个集合与前面讨论过的向量空间不同,它是无限维的。6线性无关线性无关与之相反,如果当且仅当每个均等于零,那么称其是一组线性无关的向量。注意这些定义实际上等价于:如果一个向量集合是无关的,那么这个集合中的任何向量都不能表示成该集合中其他向量的线性组合。79内积10范数11向量展开式13互逆基向量如果需要向量展开式,而基集又不是正交的,那么就必须引人下列等式所定义的互逆基底:1415171819由此可以看出,当要用一列数字表示一个一般向量时,必须知道其向量展开式所采用的基集是什么。在如果没有特殊说明,那么假设所采用的都是标准基集。21Gram矩阵只是向量个数比这些向量的原始空间中向量个数要少(R4空间中的3个向量)。在这种情况下,由这3个向量所构成的矩阵不再是一个方阵,所以不能计算其行列式的值。可以采用称为Gram的方法,这种方法按可以求出一个矩阵的行列式,矩阵的第i行第j列的元素是向量i和向量j的内积。这些向量是线性相关的当且仅当G矩阵的行列式为零。2223线性变换变换:一个变换由三部分组成25旋转变换两个向量之和的旋转伸缩向量的变换26可以看到展式中的两个系数就是的矩阵中的第一列。29从展式中可以得到矩阵表示中的第二列。所以,完整的矩阵表示可以由下式:30特征值和特征向量考虑一个线性交换::(定义域和值域相同)。分别称满足下式的那些不等于0的向量和标量分别是特征向量和特征值:请注意,特征向量实际上并不是一个真正的向量,而是一个向量空间。所以,给定变换的一个特征向量表示一个方向,当对任何取该方向的向量进行变换时,它们都将继续指向相同的方向,仅仅是按照特征值对向量的长度进行缩放。31如果某个变换有n个不同的特征值,则可以保证得到该变换n个线性无关的特征向量,因此特征向量组成变换的向量空间的一个基集。32性能曲面和最优点 介绍的是一类称为性能学习的神经网络训练的基础知识。神经网络有几种不同类型的学习规则,如联想学习(Hebb学习)和竞争学习。性能学习是一类重要的学习规则,其目的在于调整网络参数以优化网络性能。主要目的是研究性能曲面,并确定性能曲面存在极大点和极小点的条件。33性能优化
这种优化过程分两个步骤进行。第一步是定义“性能”的含义。换言之,需要找到一个衡量网络性能的定量标准,即性能指数,性能指数在网络性能良好时很小,反之则很大。优化过程的第二步是搜索减小性能指数的参数空间(调整网络权值和偏置值)。34泰勒级数假定性能指数是一个解析函数,它的各级导数均存在。3536向量的情况神经网络的性能指数并不仅是一个纯量的函数,它是所有网络参数(各个权值和偏置值)的函数,参数的数量可能是很大的。因此,需要将泰勒级数展开形式扩展为多变量形式。373839方向导数4041最大斜率在什么方向上?当方向向量与梯度的内积最大时斜率最大,故当方向向量与梯度同向时会出现最大斜率(注意方向向量的长度对此没有影响,因为它已被规格化)。42极小点43444546优化的必要条件定义了最优点(极小点)后,必须给出这种点需要满足的条件。这里还要用到泰勒级来推导这些条件:47驻点:一个极小点处的梯度一定为零。这就是局部极小点的一阶必要条件(不是充分条件)。48二阶条件49可以通过检验矩阵特征值来检验这些条件,如果所有特征值为正则矩阵为正定矩阵;如果所有特征值非负,则矩阵为半正定矩阵。充分条件:一个正定的赫森矩阵是一个强极小点存在的二阶充分条件,但不是必要条件。如果泰勒级数的二阶项为零,但三阶项为正,仍可能存在强极小点。所以强极小点存在的二阶充分条件是赫森矩阵为半正定矩阵。50二次函数二次函数的所有的高阶导数为零。51研究赫森矩阵的特征值和特征向量得到二次函数性质。考虑以原点为驻点且其值为0的二次函数:由于A为对称矩阵,所以其特征向量两两正交。可用特征向量作为列向量构成一个的矩阵:5253用方向导数的概念说明A的特征值和特征向量的物理意义以及确定二次函数的曲面特性:(特征向量集可作为向量空间的基)54首先,这个二阶导数是特征值的加权平均。所以它总不大于最大的特征值,或不小于最小特征值。换句话说:5556所以,在最大特征值的特征向量方向上存在最大的二阶导数。事实上:在每个特征向量方向的二阶导数都等于相应的特征值。在其他方向上二阶导数等于特征值的加权平均值。特征向量方向上的相应特征值即是在该方向上的二阶导数。57现将二次函数的一些特点小结如下:1)如果赫森矩阵的所有特征值为正,则函数有一个强极小点2)如果赫森矩阵的所有特征值为负,则函数有一个强极大点3)如果赫森矩阵的特征值有正有负,则函数有一个鞍点。4)如果赫森矩阵的所有特征值为非负,但某些特征值为零,则函数要么有一个弱极小点,要么没有驻点。5)如果赫森矩阵的所有特征值为非正,但某些特征值为零,则函数要么有一个弱极大点,要么没有驻点58性能优化讨论三类优化算法:最速下降法、牛顿法以及共扼梯度法。这些算法将用于神经网络的训练所有将要讨论的算法都是迭代的。首先,给定一个初始猜测值,然后按照等式:59最速下降法60下降方向满足上式的任意向量称为一个下降方向。如果沿此方向取足够小的步长,函数一定递减。这带来了另一个问题:最速下降的方向在哪里?(即在什么方向上函数递减速度最快?)这种情况发生于下式为最大的负数时:(设长度不变,只改变方向。)这是梯度和方向向量之间的内积。当方向向量与梯度反向时,该内
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 横店招聘考试题及答案
- 核电监护考试题及答案
- 购买活动策划方案
- 灌肠实验考试题及答案
- 工地焊工考试题及答案
- 幼儿园教学教案设计:安全小警报危险物品认知与分类
- 项目管理风险分析及应对措施清单模板
- 团队项目进度管理看板模板
- (正式版)DB15∕T 3676-2024 《白鲜工厂化育苗技术规程》
- 企业文化建设方案与活动策划手册
- 2025文具用品采购合同范本格式
- 电气检修生产安全培训课件
- 2025天津津南国有资本投资运营集团有限公司及实控子公司招聘工作人员招聘5人考试模拟试题及答案解析
- 营造清朗空间+课件-2025-2026学年(统编版2024)道德与法治八年级上册
- 2025年遴选财务岗考试题及答案
- 《2025新版检验检测机构管理评审报告》
- 移动与酒店合作合同协议
- excel操作考试题及答案
- 项目安全管理实施细则
- 车间偷盗行为管理办法
- 部编初一初中语文阅读理解答题公式大全(绝对有用)+专项训练练习题
评论
0/150
提交评论