




已阅读5页,还剩9页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
深入剖析神经网络的运行机理及实现随着大数据和机器硬件水平的提升,神经网络特别是深度神经网络现在是大火特火。因为目前的深度学习模型都是基于神经网络进行的改进和加深,所以要想对深度学习有一些较深入的研究,先熟悉和了解人工神经网络是非常有帮助的。本文基于神经网络实现一个手写体数字识别模型,此处使用的数据集为sklearn自带的digit数据,只要装了sklearn就可以直接获得。1、手写体人工神经网络模型神经网络是一个判别模型,它会利用训练集学到一个从输入到输出的映射关系,结构上可以分为输入层、隐藏层和输出层,如上图。输入层用于接收数据的输入,通过隐藏层的处理,最后经输出层转换得到输出。上图为基于mnist数据集画的一个神经网络模型,因为mnist一张图片为28*28=784,故输入层有784个神经元。而digit的图片为8*8=64,故digit数据集的输入层有64个神经元,也就是说我们将要实现的神经网络输入层有64个神经元,要简单很多。神经网络的性能如何,隐层的设计非常关键,隐藏层是设计用来自动学习特征的,通过这些学到的特征来进行最后一层的分类任务,那它会学到什么东西呢?在手写体数字识别中,大概会学到这样的特征:有了隐层学到的这些东西,那么对它进行组合判断就很容易得到输出了,例如发现上面的四个特征均被激活,则如我们所知,其有很大的概率表示数字0。2、运行机理及实现在有监督学习中,模型会分为训练阶段和预测阶段,在训练阶段将模型中的待定参数学习出来,然后用在预测阶段,就好像我们初中求解带参方程ax+b=y一样,首先通过已知条件把方程中的参数给求解出来,然后再利用求出来的参数计算给定x下的y值。在神经网络的训练阶段,主要包括以下几步: (1)加载训练集; (2)前向传导,将信息传递给输出层; (3)利用标注信息和代价函数来计算代价; (4)通过反向传播代价函数梯度来更新每一层中的参数 其简单实现的整体代码如下:#coding=utf-8Created on Jul 20, 2016import numpy as npimport randomfrom sklearn import datasetsclass Network(object): def _init_(self,sizes): parameters: sizes中保存了神经网络各层神经元个数 functions: 对神经网络层与层之间的连接参数进行初始化 #权重矩阵 self.weights = np.random.randn(y,x) for x,y in zip(sizes:-1,sizes1:) #偏置矩阵 self.biases = np.random.randn(x) for x in sizes1: def init_parameters(self,parameters): functions:初始化模型参数 parameters主要包括: epochs:迭代次数 mini_batch_size:批处理大小 eta:学习率 nnLayers_size:神经网络层数 self.epochs = parameters.get(epochs) self.mini_batch_size = parameters.get(mini_batch_size) self.eta = parameters.get(eta) self.nnLayers_size = parameters.get(nnLayers_size) def load_data(self): functions:加载数据集,这里使用的是sklearn自带的digit手写体数据集 digits = datasets.load_digits() return digits.data, digits.target def feed_forword(self,data): parameters: data:输入的图片表示数据,是一个一维向量 functions:前向传导,将输入传递给输出,y = w*x + b return:传递到输出层的结果 for w, b in zip(self.weights, self.biases): z = np.dot(w,data) + b data = self.sigmoid(z) return data def sigmoid(self,z): functions:sigmoid函数 return 1.0/(1.0+np.exp(-z) def crossEntrop(self,a, y): parameters: a:预测值 y:真实值 functions:交叉熵代价函数f=sigma(y*log(1/a) return np.sum(np.nan_to_num(-y*np.log(a)-(1-y)*np.log(1-a) def delta_crossEntrop(self,z,a,y): parameters: z:激活函数变量 a:预测值 y:真实值 return self.sigmoid(z) - y def SGD(self,data): function:随即梯度下降算法来对参数进行更新 parameters: data:数据集 #数据集大小 data_len = len(list(data) for _ in range(self.epochs): #将数据集按照指定大小划分成小的batch进行梯度训练,mini_batchs中的每个元素相当于一个小的样本集 mini_batchs = datak:k+self.mini_batch_size for k in range(0,data_len,self.mini_batch_size) for mini_batch in mini_batchs: #batch中的每个样本都会被用来更新参数 self.update_parameter_by_mini_batch(mini_batch) def update_parameter_by_mini_batch(self,mini_batch): functions:按照梯度下降法批量对参数更新 #首先初始化每个参数的偏导数 nabla_w = np.zeros(w.shape) for w in self.weights nabla_b = np.zeros(b.shape) for b in self.biases #将每个样本计算得到的参数偏导数进行累加 for mini_x, mini_y in mini_batch: #每个样本通过后向传播得到两个导数张量,表示对w,b的导数 delta_nabla_w,delta_nabla_b = self.derivative_by_backpropagate(mini_x, mini_y) nabla_w = nw+dnw for nw,dnw in zip(nabla_w,delta_nabla_w) nabla_b = nb+dnb for nb,dnb in zip(nabla_b,delta_nabla_b) self.weights = w - self.eta * nw for w,nw in zip(self.weights,nabla_w) self.biases = b - self.eta * nb for b,nb in zip(self.biases,nabla_b) def derivative_by_backpropagate(self,x,y): functions:通过后向传播算法来计算每个参数的梯度值 #首先初始化每个参数的偏导数 nabla_w = np.zeros(w.shape) for w in self.weights nabla_b = np.zeros(b.shape) for b in self.biases #激活值列表,元素为经过神经元后的激活输出,也即下一层的输入,此处记录下来用于计算梯度 activations = x #线性组合值列表,元素为未经过神经元前的线性组合,z=w*x+b zs = #初始输入 activation = x #首先通过循环得到求导所需要的中间值 for w, b in zip(self.weights,self.biases): z = np.dot(w,activation) + b zs.append(z) activation = self.sigmoid(z) activations.append(activation) #倒数第一层的导数计算,有交叉熵求导得来 delta = self.delta_crossEntrop(zs-1,activations-1, y) nabla_w-1 = np.dot(delta.reshape(len(delta),1), activations-2.reshape(1,len(activations-2) nabla_b-1 = delta #倒数第二层至正数第一层间的导数计算,有sigmoid函数求导得来 for i in range(2,self.nnLayers_size): z = zs-i delta = np.dot(self.weights-i+1.transpose(),delta.reshape(len(delta),1) delta_z = self.derivative_sigmoid(z) delta = np.multiply(delta, delta_z.reshape(len(delta_z),1) nabla_w-i = np.dot(np.transpose(delta),activations-i.reshape(len(activations-i),1) delta = delta.reshape(len(delta) nabla_b-i = delta return (nabla_w,nabla_b) def derivative_sigmoid(self,z): functions:对sigmoid求导的结果 return self.sigmoid(z) *(1-self.sigmoid(z) def evaluation(self,data): functions:性能评估函数 result= right = 0 for (x,y) in data: output = self.feed_forword(x) result.append(np.argmax(output),np.argmax(y) for i,j in result: if(i = j): right += 1 print(test datas size:,len(data) print(count of right prediction,right) print(the accuracy:,right/len(result) return right/len(result) def suffle(self,data): parameters: data:元组数据 functions:对数据进行打乱重组 new_data = list(data) random.shuffle(new_data) return np.array(new_data) def transLabelToList(self,data_y): functions:将digit数据集中的标签转换成一个10维的列表,方便做交叉熵求导的计算 data = for y in data_y: item = 0,0,0,0,0,0,0,0,0,0 itemy = 1 data.append(item) return dataif _name_=_main_: #神经网络的层数及各层神经元 nnLayers = 64,15,10 nn=Network(nnLayers) parameters = epochs:50,mini_batch_size:10,eta:0.01,nnLayers_size:len(nnLayers) nn.init_parameters(parameters) #加载数据集 data_x,data_y=nn.load_data() #将标签转换成一个10维列表表示,如1表示成0,1,0,0,0,0,0,0,0,0 data_y = nn.transLabelToList(data_y) #将数据打包成元组形式 data = zip(data_x,data_y) #将有序数据打乱 data = nn.suffle(data) #将数据集划分为训练集和测试集 train_data = data:1500 test_data = data1500: nn.SGD(train_data)print(nn.evaluation(test_data)接下来,我们会按照神经网络的实现过程来对神经网络进行分析。第一步,初始化一个神经网络模型 #nnLayers表示神经网络有三层结构,每层的神经元个数分别为64,15,10 nnLayers = 64,15,10 nn=Network(nnLayers) #参数词典 parameters = epochs:50,mini_batch_size:10,eta:0.01,nnLayers_size:len(nnLayers) #初始化参数函数 nn.init_parameters(parameters)def init_parameters(self,parameters): functions:初始化模型参数 parameters主要包括: epochs:迭代次数 mini_batch_size:批处理大小 eta:学习率 nnLayers_size:神经网络层数 self.epochs = parameters.get(epochs) self.mini_batch_size = parameters.get(mini_batch_size) self.eta = parameters.get(eta) self.nnLayers_size = parameters.get(nnLayers_size)我们还要对神经网络中所有的边的权值进行初始化,如下:def _init_(self,sizes): parameters: sizes中保存了神经网络各层神经元个数 functions: 对神经网络层与层之间的连接参数进行初始化 #权重矩阵 self.weights = np.random.randn(y,x) for x,y in zip(sizes:-1,sizes1:) #偏置矩阵 self.biases = np.random.randn(x) for x in sizes1:第二步,加载数据集要想训练一个模型,数据集是肯定少不了的。手写体数字识别最出名的数据集当属Lecun提供的mnist数据集,但其数据集不能直接拿来用,且我们只是打算训练一个最简单的三层神经网络,所以使用sklearn自带的digit数据集就非常合适。加载数据集函数如下: #加载数据集 data_x,data_y=nn.load_data() #将标签转换成一个10维列表表示,如1表示成0,1,0,0,0,0,0,0,0,0 data_y = nn.transLabelToList(data_y) #将数据打包成元组形式 data = zip(data_x,data_y) #将有序数据打乱 data = nn.suffle(data) #将数据集划分为训练集和测试集 train_data = data:1500 test_data = data1500:def load_data(self): functions:加载数据集,这里使用的是sklearn自带的digit手写体数据集 digits = datasets.load_digits() return digits.data, digits.target该函数返回两个list,分别保存每张手写体的数字化表示和对应的标签。 def transLabelToList(self,data_y): functions:将digit数据集中的标签转换成一个10维的列表,方便做交叉熵求导的计算 data = for y in data_y: item = 0,0,0,0,0,0,0,0,0,0 itemy = 1 data.append(item) return data该函数把原数据集中的标签进行了改写,以方便后续使用。 def suffle(self,data): parameters: data:元组数据 functions:对数据进行打乱重组 new_data = list(data) random.shuffle(new_data) return np.array(new_data)因为直接加载后的数据集是按照0-9顺序存放的,我们要通过suffle函数将数据集打乱,并划分为训练集和测试集。第三步,训练模型参数这一步是模型的关键,我们需要通过训练集把模型中的参数训练出来,因为里面夹杂了很多矩阵运算和求导运算,为方便说明,这里给出一个简单的三层神经网络,并将里面的参数和变量标注出来,该图如下:训练直接从调用SGD函数开始, nn.SGD(train_data) def SGD(self,data): function:随即梯度下降算法来对参数进行更新 ameters: data:数据集 #数据集大小 data_len = len(list(data) for _ in range(self.epochs): #将数据集按照指定大小划分成小的batch进行梯度训练,mini_batchs中的每个元素相当于一个小的样本集 mini_batchs = datak:k+self.mini_batch_size for k in range(0,data_len,self.mini_batch_size) for mini_batch in mini_batchs: #batch中的每个样本都会被用来更新参数 self.update_parameter_by_mini_batch(mini_batch)为了加快训练速度,在神经网络中并不是一次将全部数据都拿来训练,而是通过批处理进行逐步更新参数的。所以在SGD函数中,首先将训练数据集划分成小块数据送update_parameter_by_mini_batch函数进行参数更新操作。 def update_parameter_by_mini_batch(self,mini_batch): functions:按照梯度下降法批量对参数更新 #首先初始化每个参数的偏导数 nabla_w = np.zeros(w.shape) for w in self.weights nabla_b = np.zeros(b.shape) for b in self.biases #将每个样本计算得到的参数偏导数进行累加 for mini_x, mini_y in mini_batch: #每个样本通过后向传播得到两个导数张量,表示对w,b的导数 delta_nabla_w,delta_nabla_b = self.derivative_by_backpropagate(mini_x, mini_y) nabla_w = nw+dnw for nw,dnw in zip(nabla_w,delta_nabla_w) nabla_b = nb+dnb for nb,dnb in zip(nabla_b,delta_nabla_b) #梯度下降法更新参数 self.weights = w - self.eta * nw for w,nw in zip(self.weights,nabla_w) self.biases = b - self.eta * nb for b,nb in zip(self.biases,nabla_b)在该函数中,我们会通过反向传播代价来更新参数,在mini_batch中,我们会把batch中每对样本对各参数的偏导数进行累加作为梯度下降法中的梯度,它不需要每个样本过来都要使用梯度下降法计算一次,这也是使用mini_batch速度能够加快速度的原因。在上面的函数中,用到了derivative_by_backpropagate来进行反向传播,这个函数是整个模型的关键。 def derivative_by_backpropagate(self,x,y): functions:通过后向传播算法来计算每个参数的梯度值 #首先初始化每个参数的偏导数 nabla_w = np.zeros(w.shape) for w in self.weights nabla_b = np.zeros(b.shape) for b in self.biases #激活值列表,元素为经过神经元后的激活输出,也即下一层的输入,此处记录下来用于计算梯度 activations = x #线性组合值列表,元素为未经过神经元前的线性组合,z=w*x+b zs = #初始输入 activation = x #首先通过循环得到求导所需要的中间值 for w, b in zip(self.weights,self.biases): z = np.dot(w,activation) + b zs.append(z) activation = self.sigmoid(z) activations.append(tivation) #倒数第一层的导数计算,有交叉熵求导得来 delta = self.delta_crossEntrop(activations-1, y) nabla_w-1 = np.dot(delta.reshape(len(delta),1), activations-2.reshape(1,len(activations-2) nabla_b-1 = delta #倒数第二层至正数第一层间的导数计算,有sigmoid函数求导得来 for i in range(2,self.nnLayers_size): z = zs-i delta = np.dot(self.weights-i+1.transpose(),delta.reshape(len(delta),1) delta_z = self.derivative_sigmoid(z) delta = np.multiply(delta, delta_z.reshape(len(delta_z),1) nabla_w-i = np.dot(np.transpose(delta),activations-i.reshape(len(activations-i),1) delta = delta.reshape(len(delta) nabla_b-i = delta return (nabla_w,nabla_b) def test(): #nothing在该函数中,我们定义两个列表分别来存储前向传导过程中计算的中间变量,
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 消化性溃疡患者用药护理
- 公司职工安全培训总结课件
- 面部皮肤护理概述
- 结构化书面汇报
- 小学数学教师秋季学期教学工作计划2021年
- 公司级安全教育培训材料课件
- 电商运营助理年度工作总结
- 美妆年度工作总结
- 公司福利新员工入职课件
- 公司电气安全培训课件
- 羽毛球裁判员培训与实施
- 小学生养成良好学习习惯课件
- 人教版中职数学拓展模块一:3.2.1向量的加法课件(共21张课件)
- 宫外孕大出血护理
- 《乡土中国》非连续性文本阅读专练-2023届高考语文备考专题复习
- 2025年北京市水务局所属事业单位招聘工作人员101人笔试高频重点提升(共500题)附带答案详解
- 2025至2030年中国密炼机上辅机系统行业投资前景及策略咨询研究报告
- 皮纹分析师培训
- 《T CPSS 1013-2021-开关电源电子元器件降额技术规范》
- 起重机械操作规程(4篇)
- 初级关务水平测试题库500题(含答案)
评论
0/150
提交评论