




已阅读5页,还剩77页未读, 继续免费阅读
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
基于卷积神经网络的股票预测,PROFESSIONALPOWERPOINTTEMPLATE,姓名:罗佳姓名:郑春燕姓名:王萌姓名:童徐能姓名:刘珈彤,|学号:|学号:|学号:|学号:|学号:,05|,案例分析结果,制作人:罗佳汇报人:罗佳,1.1引例-图像边界检测,假设我们有这样的一张图片,大小88,图的中间两个颜色的分界线就是要检测的边界。怎么检测这个边界呢?,设计一个滤波器(filter,也称为kernel),大小33:,图片中的数字代表该位置的像素值,像素值越大,颜色越亮,所以为了示意,我们把右边小像素的地方画成深色。,制作人:罗佳汇报人:罗佳,“卷积”过程:用filter,往原图片上覆盖,对应元素相乘,然后求和。计算一个区域之后,就向其他区域挪动,接着计算,直到把原图片的每一个角落都覆盖到了为止。,制作人:罗佳汇报人:罗佳,CNN(convolutionalneuralnetwork),主要就是通过一个个的filter,不断地提取特征,从局部的特征到总体的特征,从而进行图像识别等等功能。每个filter中的各个数字就是参数,可以通过大量的数据,来让机器自己去“学习”这些参数。这就是CNN的基本原理。,制作人:罗佳汇报人:罗佳,卷积神经网络(ConvolutionalNeuralNetwork,CNN)是近年来在多层神经网络的基础上发展起来的针对图像分类和识别而特别设计的一种深度学习方法。卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式,只要用已知的模式对卷积网络加以训练,网络就具有输入输出对之间的映射能力。,现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。在近些年的机器视觉领域和其他很多问题上,它是最具影响力的创新结果,卷积神经网络取得了当前最好的效果。,1.2CNN基本概念,制作人:罗佳汇报人:罗佳,制作人:罗佳汇报人:罗佳,1960s,1980s,1990s,2012,01,03,02,04,上世纪60年代,Hubel和Wiesel通过对猫视觉皮层细胞的研究,提出了感受野这个概念。,20世纪90年代,YannLeCun等人发表论文,确立了CNN的现代结构,后来又对其进行完善。,上世纪80年代,KunihikoFukushima在感受野概念的基础之上提出了神经认知机(neocognitron)的概念,可以看作是卷积神经网络的第一个实现网络。,2012年更深层次的AlexNet网络取得成功,此后卷积神经网络蓬勃发展,被广泛用于各个领域,在很多问题上都取得了当前最好的性能,1.3CNN发展历史,制作人:罗佳汇报人:罗佳,制作人:罗佳汇报人:罗佳,1.4CNN基本结构,的基本结构由输入层、隐藏层、输出层构成。其中隐藏层又包括卷积层、池化层、全连接层。卷积层和池化层一般会取若干个,采用卷积层和池化层交替设置,即一个卷积层连接一个池化层,池化层后再连接一个卷积层,依此类推。由于卷积层中输出特征面的每个神经元与其输入进行局部连接,并通过对应的连接权值与局部输入进行加权求和再加上偏置值,得到该神经元输入值,该过程等同于卷积过程,也由此而得名。,制作人:罗佳汇报人:罗佳,1.4CNN基本结构,隐藏层,制作人:罗佳汇报人:罗佳,1.4.1卷积层,深度(depth),输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28*28*1的特征图,上图是用了两个filter得到了两个特征图;上图中,展示出一般使用多个filter分别进行卷积,最终得到多个特征图。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,图一使用了6个filter分别卷积进行特征提取,最终得到6个特征图。将这6层叠在一起就得到了卷积层输出的结果。,图一,图二,卷积不仅限于对原始输入的卷积。蓝色方块是在原始输入上进行卷积操作,使用了6个filter得到了6个提取特征图。绿色方块还能对蓝色方块进行卷积操作,使用了10个filter得到了10个特征图。每一个filter的深度必须与上一层输入的深度相等。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,1.步长(stride),Stride表示filter在原图片中水平方向和垂直方向每次的步进长度。若stride=2,则表示filter每次步进长度为2,即隔一点移动一次。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,2.填充值(zero-padding),以下图为例子,比如有这么一个5*5的图片(一个格子一个像素),我们滑动窗口取2*2,步长取2,那么我们发现还剩下1个像素没法滑完,那怎么办呢?,那我们在原先的矩阵加了一层填充值,使得变成6*6的矩阵,那么窗口就可以刚好把所有像素遍历完。这就是填充值的作用。每次卷积前,先给图片周围都补一圈空白,让卷积之后图片跟原来一样大,同时,原来的边缘也被计算了更多次。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,2.填充值(zero-padding),不使用Padding的缺点,经过卷积操作后图像会缩小如果你注意角落边的像素,则此像素点只会被卷积核触碰一次。即只会在第一次卷积操作时被卷积核扫描。这意味着会丢失图像边缘的很多信息。但是对于原始图像中心的像素点,在每次卷积操作时都会被扫描。卷积核的感受野会扫描此位置多次.,使用Padding进行维度的填充,为了使每次卷积操作后大小不会丢失,使用0填充在原始图像的外围。如果需要使经过卷积后的特征图大小保持不变,则卷积核的边长是奇数,则能保证输出的特征图大小与原图像大小相等。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,卷积层由多个特征面(Featuremap)组成,每个特征面由多个神经元组成,它的每一个神经元通过卷积核与上一层特征面的局部区域相连。卷积核是一个权值矩阵(如对于二维图像而言可为或矩阵)。的卷积层通过卷积操作提取输入的不同特征,第层卷积层提取低级特征如边缘、线条、角落,更高层的卷积层提取更高级的特征。直观理解卷积:,3.卷积层的概念,第一次卷积可以提取出低层次的特征。第二次卷积可以提取出中层次的特征。第三次卷积可以提取出高层次的特征。,特征是不断进行提取和压缩的,最终能得到比较高层次特征,简言之就是对原式特征一步又一步的浓缩,最终得到的特征更可靠。利用最后一层特征可以做各种任务:比如分类、回归等。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,制作人:罗佳汇报人:罗佳,1.4.1卷积层,4.卷积的计算,下面蓝色矩阵周围有一圈灰色的框,那些就是上面所说到的填充值,这里的蓝色矩阵就是输入的图像,粉色矩阵就是卷积层的神经元,这里表示了有两个神经元(w0,w1)。绿色矩阵就是经过卷积运算后的输出矩阵,这里的步长设置为2。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,4.卷积的计算,左区域的三个大矩阵是原式图像的输入,RGB三个通道用三个矩阵表示,大小为7*7*3。FilterW0表示1个filter助手,尺寸为3*3,深度为3(三个矩阵);FilterW1也表示1个filter助手。因为卷积中我们用了2个filter,因此该卷积层结果的输出深度为2(绿色矩阵有2个)。Biasb0是FilterW0的偏置项,Biasb1是FilterW1的偏置项。OutPut是卷积后的输出,尺寸为3*3,深度为2。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,4.卷积的计算,蓝色的矩阵(输入图像)对粉色的矩阵(filter)进行矩阵内积计算并将三个内积运算的结果与偏置值b相加(比如上面图的计算:2+(-2+1-2)+(1-2-2)+1=2-3-3+1=-3),计算后的值就是绿框矩阵的一个元素。,制作人:罗佳汇报人:罗佳,1.4.1卷积层,4.卷积的计算,动图展示所有计算过程,制作人:罗佳汇报人:罗佳,1.4.1卷积层,5.卷积的计算的思考,为什么每次滑动是2个格子?,制作人:罗佳汇报人:罗佳,1.4.1卷积层,一次卷积后的输出特征图的尺寸是多少呢?在此例子中选择77的图像,2作为步长,使用33的卷积核,最终得到一个33的特征图。,特征图大小公式,其中n为原始图像大小,p为Padding填充维度,f为卷积核维度,s为步长当出现得到的结果不是整数时,可以采用向下取整的方式使其维度为整数,5.卷积的计算的思考,制作人:罗佳汇报人:罗佳,1.4.2池化层,池化层紧跟在卷积层之后,同样由多个特征面组成,它的每一个特征面唯一对应于其上一层的一个特征面,不会改变特征面的个数。卷积层是池化层的输入层,卷积层的一个特征面与池化层中的一个特征面唯一对应,且池化层的神经元也与其输入层的局部接受域相连,不同神经元局部接受域不重叠。池化层旨在通过降低特征面的分辨率来获得具有空间不变性的特征。池化层起到二次提取特征的作用,它的每个神经元对局部接受域进行池化操作。,上图显示,池化就是对特征图进行特征压缩,池化层也被称为下采样层,常用的池化方法有最大池化即取局部接受域中值最大的点、平均值池化即对局部接受域中的所有值求均值、随机池化。,制作人:罗佳汇报人:罗佳,1.4.2池化层,2.提高局部平移不变性,大大提高了图像分类的准确性,3.降低了数据维度,有效地避免了过拟合,制作人:罗佳汇报人:罗佳,1.4.2池化层,Pooling(池化)操作,最常见的池化操作为平均池化(meanpooling)和最大池化(maxpooling):平均池化:计算图像区域的平均值作为该区域池化后的值。最大池化:选图像区域的最大值作为该区域池化后的值。,平均池化,最大池化,制作人:罗佳汇报人:罗佳,全连接层中的每个神经元与其前一层的所有神经元进行全连接。全连接层可以整合卷积层或者池化层中具有类别区分性的局部信息。为了提升CNN网络性能,全连接层每个神经元的激励函数一般采用RELU函数。最后一层全连接层的输出值被传递给一个输出层,可以采用softmax逻辑回归进行分类,该层也可称为softmax层。卷积层和池化层的输出代表了输入图像的高级特性,而全连接层的目的就是类别基于训练集用这些特征进行分类,连接所有的特征,将输出值送给分类器(如softmax分类器)。,1.4.3全连接层,制作人:罗佳汇报人:罗佳,制作人:郑春燕汇报人:郑春燕,ImageNet图像识别,2007年初,李飞飞开始了ImageNet项目,是目前世界上最大的图像识别数据库,已超过1300万张。2009年,李飞飞和她的团队发表了ImageNet的论文与数据集。,ImageNet在线数据库截图,2.CNN典型网络,制作人:郑春燕汇报人:郑春燕,29,-,2.CNN典型网络,06,RestNet,制作人:郑春燕汇报人:郑春燕,2.1LeNet-5,LeCun等将BP算法应用到多层神经网络中,提出LeNet-5模型,并将其用于手写数字识别,卷积神经网络才算正式提出。,Input(3232)-CONV(6filters)-AvgPOOL-CONV(16filters)-AvgPOOL-FC(120)-FC(84)-FC(10),LeNet-5网络模型,制作人:郑春燕汇报人:郑春燕,2.1LeNet-5,制作人:郑春燕汇报人:郑春燕,LeCun等将BP算法应用到多层神经网络中,提出LeNet-5模型,并将其用于手写数字识别,卷积神经网络才算正式提出。,从上表的具体参数可以看出,LeNet的网络结构十分简单且单一,卷积层C1、C3和C5层除了输出维数外采用的是相同的参数,池化层S2和S4采用的也是相同的参数。,LeNet-5具体参数,2.2ALexNet,制作人:郑春燕汇报人:郑春燕,2012年Krizhevsky使用卷积神经网络在ILSVRC2012图像分类大赛上夺冠,提出了AlexNet模型,促使了之后的神经网络研究浪潮。AlexNet网络的提出对于卷积神经网络具有里程碑式的意义。,左图为dropout前,右图为dropout后。dropout能在一定程度上防止网络过拟合,并且能加快网络的训练速度。,Dropout示意图,1.数据增强*水平翻转*随机裁剪、平移变换*颜色光照变换2.Dropout:Dropout方法和数据增强一样,都是防止过拟合的。简单的说,dropout能按照一定的概率将神经元从网络中丢弃。,2.2ALexNet,制作人:郑春燕汇报人:郑春燕,输入:224*224*3(RGB图像),图像会经过预处理变为227*227*3;,ALexNet网络模型,2.2ALexNet,制作人:郑春燕汇报人:郑春燕,ALexNet网络模型,ALexNet具体参数,2.3ZFNet,制作人:郑春燕汇报人:郑春燕,ZFNet是由纽约大学的MatthewZeiler和RobFergus所设计,该网络在AlexNet上进行了微小的改进,主要贡献在于在一定程度上解释了卷积神经网络为什么有效,以及如何提高网络的性能。,ZFNet的网络模型与AlexNet十分相似,这里就不列举每一层的输入输出了。,ZFNet网络模型,2.3ZFNet,制作人:郑春燕汇报人:郑春燕,ZFNet是由纽约大学的MatthewZeiler和RobFergus所设计,该网络在AlexNet上进行了微小的改进,主要贡献在于在一定程度上解释了卷积神经网络为什么有效,以及如何提高网络的性能。,ZFNet的网络模型与AlexNet十分相似,这里就不列举每一层的输入输出了。,ZFNet具体参数,2.4VGGNet,制作人:郑春燕汇报人:郑春燕,VGGNet于2014年被牛津大学的KarenSimonyan和AndrewZisserman提出,主要特点是“简洁,深度”。,与AlexNet主要有以下不同:*Vgg16有16层网络,AlexNet只有8层;*在训练和测试时使用了多尺度做数据增强。,VGGNet网络模型,深度:VGG有19层,远远超过了它的前辈;简洁:在于它的结构上,一律采用stride为1的33filter,以及stride为2的22MaxPooling。,2.5GoogleNet,制作人:郑春燕汇报人:郑春燕,GoogleNet于2014年被牛津大学的KarenSimonyan和AndrewZisserman提出,主要特点是“简洁,深度”。,InceptionNet不再是使用Sequentialmodel,在结构上有了重大创新;在sequentialmodel中,所有操作,无论是CONV还是POOL,都是排成一些序列。,问题:整合在一起之后,channels这个维度会过大,2.5GoogleNet,制作人:郑春燕汇报人:郑春燕,GoogleNet于2014年被牛津大学的KarenSimonyan和AndrewZisserman提出,主要特点是“简洁,深度”。,降维:使用filter为11的CONV,InceptionNetwork,就是由一个个的inceptionmodule组成的。,InceptionModule,2.5GoogleNet,制作人:郑春燕汇报人:郑春燕,通过inceptionmodule,GoogleNet成功地把CNN的层数增加到了超过100层。深度加深了,但参数的数量比AlexNet要少很多倍!所以训练出的模型不仅效果好,而且更快。,2.6RestNet(残差网络),制作人:郑春燕汇报人:郑春燕,RestNet(残差网络)于2015年由MSRA何凯明团队提出了ResidualNetworks。,CNN面临的一个问题,随着层数的增加,CNN的效果会遇到瓶颈,甚至会不增反降。这往往是梯度爆炸或者梯度消失引起的。ResNet就是为了解决这个问题而提出的,因而帮助训练更深的网络,引入了一个residualblock(残差块)。,2.6RestNet(残差网络),制作人:郑春燕汇报人:郑春燕,这个做法相当于把前面的信息提取出来,加入到当前的计算中,论文作者认为,这样的做法,可以使神经网络更容易优化,事实上确实是这样。通过这种residualblock,成功地搭建了一个拥有152层的CNN!深不见底!,2.6RestNet(残差网络),制作人:郑春燕汇报人:郑春燕,RestNet(残差网络)于2015年由MSRA何凯明团队提出了ResidualNetworks。,Inception-ResNet-v2内部结构,制作人:王萌汇报人:王萌,。,初始化,给定输入向量和目标输出,求隐含层,输出层个单元的输出,求目标值和实际输出偏量e,E阈值,是,结束,否,计算网络层神经元的误差,求误差梯度,更新权值,前向传播过程,反向传播过程,3.1神经网络训练流程图,制作人:王萌汇报人:王萌,3.2CNN前向传播,在前向传播过程中,输入的图形数据经过多层卷积层的卷积和池化层的池化处理,提出特征向量,将特征向量传入全连接层中,得出分类识别的结果。当输出的结果与我们的期望值相符时,输出结果。,1.简介:,制作人:王萌汇报人:王萌,2.卷积层前向传播过程:我们设定输入为15个神经元的图片,卷积核为221的网络,即卷积核的权值为W1,W2,W3,W4。卷积核采用步长为1的卷积方式。,制作人:王萌汇报人:王萌,3.池化层前向传播过程:上一层(卷积层)提取的特征作为输入传到池化层,通过池化层的池化操作,降低数据的维度。池化方式主要有三种:最大池化、均值池化、随机池化。,制作人:王萌汇报人:王萌,4.全连接层的向前传播:特征图进过卷积层和池化层的特征提取之后,将提取出来的特征传到全连接层中,通过全连接层,获得分类模型。,其中w代表权值,z=xT*w,a=sigmoid(z).,制作人:王萌汇报人:王萌,3.3反向传播(BP),1.什么是反向传播:,当卷积神经网络输出的结果与我们的期望值不相符时,则进行反向传播过程。求出结果与期望值的误差,再将误差一层一层的返回,计算出每一层的误差,然后进行权值更新。该过程的主要目的是通过训练样本和期望值来调整网络权值。,2.为什么需要反向传播:,数据从输入层到输出层,期间经过了卷积层,池化层,全连接层,而数据在各层之间传递的过程中难免会造成数据的损失,则也就导致了误差的产生。,制作人:王萌汇报人:王萌,3.DNN反向传播算法:,制作人:王萌汇报人:王萌,制作人:王萌汇报人:王萌,制作人:王萌汇报人:王萌,1.CNN中的反向传播与DNN中的不同点:1)池化层在前向传播的时候,对输入进行了压缩.2)卷积层是通过张量卷积,或者说若干个矩阵卷积求和而得的当前层的输出,DNN的全连接层是直接进行矩阵乘法得到当前层的输出.,3.4CNN反向传播,基于以上不同,需要重新考虑CNN的反向传播过程。,制作人:王萌汇报人:王萌,将误差进行向上传播,由于存在卷积核,需要对卷积核权值w和偏置值b求梯度,反向传播结构,2.CNN,制作人:王萌汇报人:王萌,3.当某层是池化层时(l已知):在前向传播算法时,池化层一般我们会用MAX或者Average对输入进行池化。现在我们反过来要从缩小后的误差l,还原前一次较大区域对应的误差。我们首先会把l的所有子矩阵矩阵大小还原成池化之前的大小。以Average为例,需要把l的所有子矩阵的各个池化局域的值取平均后放在还原后的子矩阵位置。这个过程一般叫做upsample。,制作人:王萌汇报人:王萌,制作人:王萌汇报人:王萌,4.当某层是卷积层时l已知:之前介绍的卷积层的前向传播可以用下面的公式来表示:将其展开,得到zij与wij之间的关系:,通过链式法则可以得到梯度:,制作人:王萌汇报人:王萌,5.卷积层参数(w,b)的梯度:已经知道了每一层的l,去推导该层W,b的梯度。因为池化层没有W,b所以我们只需要求卷积层参数的梯度,全连接网络的情况已经在之前介绍了。我们直接给出卷积层(w,b)的梯度:其中(a)ij矩阵是我们将要进行卷积的输入向量。至此,我们得到了每一层参数得梯度,通过批量梯度下降法,可以得到更新后得权重,当迭代到给定得步数或者误差小于给定阈值,训练结束。得到了一个CNN训练模型。,制作人:王萌汇报人:王萌,制作人:童徐能汇报人:童徐能,4.2.1案例背景及意义,案例背景,1,自股票出现以来,股票交易就和人们日常生活紧密结合在一起,由于股票价格变化往往受政治、社会、经济因素的影响,具有变换幅度大,变化因素多,不稳定性的特点。因此,如何正确对股票价格进行预测就成为股票买卖者最关心的问题。随着证券投资理论的发展,越来越多的量化从业人员开始将这些理论应用到股市投资当中去,对股市进行长期或短期的预测。这些预测方法多种多样包括统计学方法、机器学习方法等等,并且于实际应用中取得了一定的成功。然而股票市场是一个非常复杂的系统,影响股价变动的因素太多,股价波动的非线性特性使得不论采用何种方法,都需要大量的数据和有效的算法。这使得现有的股票预测方法大都不尽如人意,如何有效地从海量历史数据中挖掘出有效信息,并采用有效的预测方法进行分析处理成为一个越来越重要的课题。,案例意义,2,随着人工智能技术的快速发展,机器学习、深度学习等技术不断进入各行各业。金融领域也不例外,利用深度学习进行大数据挖掘,分析客户的画像,提供对应的金融服务已经在现实中使用。在金融交易领域其中一个分支量化交易(金融工程)采用相关的人工智能技术,必将是大势所趋。本案例主要是采用卷积神经网络进行证券期货量化交易中的股票预测。,制作人:童徐能汇报人:童徐能,4.2.1股票预测定义,股票股票(stock)是股份公司发行的所有权凭证,是股份公司为筹集资金而发行给各个股东作为持股凭证并借以取得股息和红利的一种有价证券。每股股票都代表股东对企业拥有一个基本单位的所有权。每家上市公司都会发行股票。股票是股份公司资本的构成部分,可以转让、买卖,是资本市场的主要长期信用工具,但不能要求公司返还其出资。,股票预测对股市具有深刻了解的证券分析人员根据股票行情的发展进行的对未来股市发展方向以及涨跌程度的预测行为。这种预测行为只是基于假定的因素为既定的前提条件为基础的。股票市场出现后,大量学者对股票价格进行了深入研究,其预测原理为:通过对历史和当前的股票数据进行分析,对股票未来的价格走势进行预测,从而为股民提供参考依据。,制作人:童徐能汇报人:童徐能,fx,4.2.2影响股票价格因素,SixStepsProcess,02,03,06,01,05,04,政治因素包括政局变化、国家或地区之间的战争、国家领导人的更跌等。,政治,不同公司有不同的盈利能力,盈利不同自然影响到公司资产价值。,公司自身经营情况,当利率上涨时,公司的借贷成本会增加,进而会导致公司难以获得必需的资金,公司也会因此而削减生产规模,造成获利变少,股价下跌。与此相反,股价就会上升。,利率,股市与经济之间的关系密切,经济对股市的影响是非常直观的,任何一方发生变化,在另一方都会有所反应。,经济,一些大的资金机构通过利用自己的资金优势,按照自己的意图来操控股票交易市场,影响股票的交易价格,让股价的按照预定目标波动,使得中小投资者和散户被迫进行交易,而这些资金机构则从中牟取暴利。,人为因素,随着各国对外开放程度不断扩张,股市也越加受到汇率的影响。本国货币升值受益的多半是进口业,因为其购买力增加;与此相反,出口业由于竞争力降低,而导致亏损。,汇率,制作人:童徐能汇报人:童徐能,4.3.1股票预测方法,2.技术面分析,1.基本面分析,基本面分析则包含其他诸如银行利率、其他投资行业的回报率等因素,其基本思路和策略是“低价买入并长期持有”。传统的基本面分析主要是以经济学理论为基础,通过分析企业的内在价值以及行业发展前景来做出投资建议。基本面分析是通过预测经济周期来做出投资决策,但是预测经济趋势是比较困难的,从研究股价波动原因的角度来预测未来股价的趋势难度极高。,技术面分析使用股票历史数据(例如股票往日开盘价、收盘价、最高价、成交量、成交金额等数据),技术面分析认为所有影响股价变动的因素(经济事件、政治事件、战争、自然灾害等)都会反映到价格变化上来。所以只要分析股票价格趋势,从中找到规律就可以找到盈利的契机。技术分析是研究市场行为的,不会直接涉及到这些难题。以移动平均线为代表的技术分析方法能够预测一段时期内的股价走势,但投资者往往会对短期内的股票价格变化更感兴趣。然而现有的技术分析方法在解决受多种因素影响的股价预测问题上存在着较多瓶颈,预测出的结果往往表现不佳。,制作人:童徐能汇报人:童徐能,混沌是一种貌似随机的运动,是非线性现象,其本质是运动对于初值的敏感性。,小波分析法,4.3.2常用的技术面分析方法,马尔科夫预测法,混沌学预测法,遗传算法预测法,神经网络预测法,起源于生物进化理,论通过选择、杂交、变异等操作进行演化,挑选得到最好的特征、最优的结果。,马尔科夫过程的重要特征是无后效性。马尔科夫预测法的关键在于马尔科夫链,根据目前的事件状态预测事件在将来各时刻的状态变动情况。,小波分析法首先对原始时间序列进行预处理,获得非平稳序列中的平稳部分并组成新序列,紧接着将新序列代入预测模型进行预测,最后将序列非平稳化。,制作人:童徐能汇报人:童徐能,神经网络是指,从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。,4.3.3神经网络预测方法,反向传播神经网络(BP),预测方法,神经网络,回归神经网络(RNN),深度信念网络(DBN),股票价格变化是一个非线性动力学系统,与一个国家的政治和经济等因素有关,其在时间上具有不可逆性,不确定因素相当多,采用经典的数学方法很难对复杂多变的股票市场进行准确的预测,效果也不理想。,卷积神经网络(CNN),利用神经网络进行非线性预测已成为国际上研究的热点之一。相比传统的统计学方法,神经网络在处理非线性问题方面有着优势,而且由于具有网络结构简单、算法简单、实现容易等优点,使得其在股票价格预测中得到了较广泛的应用。但是其预测性能与其参数好坏有着直接的关系。,制作人:童徐能汇报人:童徐能,4.3.4卷积神经网络预测方法,卷积神经网络是一种模拟生物视觉系统运行机制的多层神经网络结构。它是由多层卷积层和降采样层顺序连接构成的神经网络,能够从原始数据中获取有用的特征描述,是一种从数据中提取特征的有效方法。目前卷积神经网络不仅已经成为语音识别、图像识别及分类、自然语言处理等领域的研究热点,在这些领域有了广泛且成功的应用,而且作为新兴技术已经成功应用于经济预测领域。因此本案例引入卷积神经网络结构对股票时间序列数据进行预测。卷积神经网络因其不同于BP/RNN/DBN等全连接(FullyConnected)网络的网络结构,可以在各层网络的神经元之间共享权重,使得网络整体的权重数量大为降低,也使得模型避免陷入维度灾难和局部极小。,语音识别,自然语言处理,图像识别,机器视觉,经济预测,人脸识别,应用,etc,制作人:童徐能汇报人:童徐能,4.4股票预测步骤,制作人:童徐能汇报人:童徐能,制作人:刘珈彤汇报人:刘珈彤,5.1数据获取,
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 新能源汽车研发团队绩效奖励补充协议
- 2025年高级按摩考试题及答案
- 警察专业面试题及答案解析
- 下肢蜂窝织炎护理查房
- 消防安全检查培训教学课件
- 幼儿园泥工培训活动
- 妊高症病人的观察及护理
- 2025至2030中国贯叶连翘提取物行业产业运行态势及投资规划深度研究报告
- 2025至2030直接驱动主轴行业发展趋势分析与未来投资战略咨询研究报告
- 公司金融产品汇报
- 蔬菜抗营养成分流失工艺考核试卷及答案
- 极端天气下灾害风险评估方案
- 民警培训安全驾驶简报课件
- 消毒灭菌效果监测报告
- 2025年软工导论期末试题及答案
- 2025年山东省潍坊市中考数学试卷附答案
- 俄罗斯礼俗课件
- 2024统编版八年级历史上册全册知识点复习提纲
- 虚拟服装培训教程课件
- 2025年国防教育知识竞赛试题(附答案)
- 非车主押车借款合同范本
评论
0/150
提交评论