版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
农业人工智能11.1前馈神经网络11.1.1前馈神经网络概述11.1.2梯度和反向传播11.1.3使用前馈神经网络预测玉米产量定义:前馈神经网络(feedforwardneuralnetwork,FNN)是一种人工神经网络架构。11.1前馈神经网络1、信息从输入层通过一个或多个隐藏层传递到输出层2、每一层的神经元都与下一层的神经元全连接。3、不包含环路4、信息总是单向前进激活函数(activationfunction):是神经网络中每个单元的输出通过的非线性变换函数。常用的激活函数:S型函数(Sigmoid)修正线性单元(ReLU)双曲正切激活函数(Tanh)11.1.1前馈神经网络概述—激活函数图11.2:
(a)logistic或sigmoid函数;(b)ReLU函数和softplus函数(c)tanh函数计算图(activationfunction):是一种表示神经网络结构的图,其中每个节点表示一个基本计算,每条边表示计算之间的数据流。11.1.1前馈神经网络概述—计算图图
11.3(a)一个具有两个输入、两个单元的隐藏层和一个输出单元的神经网络。(b)神经网络(a)的完整计算图链式法则(chainrule):在神经网络中,链式法则用于反向传播算法,通过逐层计算误差梯度来更新权重。网络输出一个预测y^,它的真值是y,所以有:11.1.2前馈神经网络-梯度和反向传播
对玉米群体的产量预测问题:训练:验证:测试=0.72:0.18:0.1一个含有128个神经元的隐藏层以及一个预测产量的输出层添加了Tanh作为激活函数以及Dropout防止过拟合11.1.2前馈神经网络-使用前馈神经网络预测玉米产量图11.8简单神经网络模型在验证集上的预测效果(左)和在测试集上的预测效果(右)农业人工智能11.2卷积神经网络11.2.1卷积11.2.2池化和下采样11.2.3残差网络11.2.4使用卷积神经网络预测玉米产量定义1:局部连接(localconnection)指的是在卷积神经网络中,每个神经元只与输入数据中的一个局部区域连接,而不是与所有输入数据连接定义2:权重共享(weightsharing)是卷积神经网络中的一种技术,使得同一个卷积核在整个输入数据上重复使用,从而减少参数数量11.2.1卷积卷积神经网络(CNN):以空间局部连接和权重共享为特征的网络卷积核(kernel):一个在多个局部区域重复共享的权重模式卷积(convolution):将卷积核应用于图像像素(或后续层中空间组织的单元)的过程11.2.1卷积图11.9一维卷积操作的例子,输入是多个SNP位点,其中核的大小l=3,步长s=2。可视为矩阵乘法。11.2.1卷积定义:通道相加(channelsummation)是指在卷积操作中,将多个通道的卷积结果相加,得到单一的输出特征图,从而综合各个通道之间的特征图11.10卷积神经网络的前两层,其中核的大小l=3,步长s=1。为了使隐藏层的尺寸与输入层相同,在左右两端添加了填充。图中红色显示的是第二隐藏层中一个单元的感受野。一般来说,单元越深,感受野越大。池化的工作方式类似于卷积,有核大小L,步长s。但所应用的操作模式是固定的,而不是学习得到的。有两种常见的形式:1.平均池化计算L个输入的均值,将图像的分辨率降低(下采样)。平均池化促进了多尺度识别。平均池化减少了后续层中所需的权重数量,降低计算成本。2.最大池化计算L个输入的最大值。11.2.2池化和下采样若学到的扰动很小,那么下一层就接近于前一层的复制。其中,g表示残差层的激活函数。用于计算残差的函数通常是一个由一层非线性层和一层线性层组合而成的神经网络。其中,W和V是学习到的权重矩阵,通常还具有偏置权重。如果V=0,那么残差f消失,方程简化为:11.2.3残差网络将简单前馈网络中的模型替换为下述代码展示的卷积神经网络的结构,我们可以实现使用CNN预测玉米产量的任务。11.2.4使用卷积神经网络预测玉米产量图11.11卷积神经网络的实现代码。农业人工智能11.3循环神经网络11.3.1循环神经网络基础模型11.3.2长短时记忆网络11.3.3使用长短时记忆网络预测玉米产量11.3循环神经网络循环神经网络简介:
RNN:让神经网络第一次拥有“记忆”,从此序列建模不再受固定窗口限制。图11-13循环神经网络
(a)循环神经网络的示意图,其中隐藏层z具有循环连接;∆表示延迟。(b)同一网络展开3个时间步,形成一个前馈神经网络。11.3.1循环神经网络基础模型K循环神经网络(RNN)计算图与展开形式关键性质:所有时间步共享相同的权重矩阵图11-13循环神经网络11.3.1循环神经网络基础模型
11.3.2长短时记忆网络解决普通RNN长期依赖难题的最经典有效架构普通RNN通过反复矩阵乘法导致梯度消失/爆炸LSTM引入记忆单元(cell)cₜ,信息以线性加法方式传递通过三个门控(gate)精确控制信息的遗忘、写入和输出目前仍然是实际应用中最广泛、最稳定的循环单元之一
图11-14LSTM的门控单元结构示意图记忆单元(memorycell)是长短时记忆网络(LSTM)中的关键组件,用于在多个时间步上保留信息。11.3.2长短时记忆网络
图11-14LSTM的门控单元结构示意图
图11-15LSTM的代码模块11.3.3使用LSTM直接预测玉米产量将前馈网络替换为标准LSTM结构任务:使用相同SNP输入特征预测玉米产量模型结构:2层LSTM,每层128个隐藏单元
最后一层隐藏状态→1个全连接神经元→产量预测训练方式:与前馈网络完全相同的训练/验证/测试划分评估指标:Pearson相关系数(PCC)
图11-16LSTM模型在验证集上的预测效果(a)和在测试集上的预测效果(b)11.3.3使用LSTM直接预测玉米产量LSTM初步结果与关键发现验证集PCC=0.3158独立测试集PCC=0.2415验证集PCC=0.3158预测值几乎退化为常数(图中表现为近似水平线)独立测试集PCC=0.2415性能显著低于同等规模的前馈网络主要原因:
输入SNP为非序列、静态表格数据,缺乏时序结构
标准LSTM无法发挥序列建模优势结论:直接将LSTM应用于非序列农业基因组数据效果很差农业人工智能11.4网络优化11.4.1随机梯度下降11.4.2批量归一化11.4.3选择正确的网络架构11.4.4随机失活11.4.5网络优化后的玉米产量预测模型11.4.6讨论11.4.1随机梯度下降核心机制:在超大参数空间与训练集场景下,随机梯度下降(SGD)通过小批量随机性帮助逃逸局部极小值,其计算成本与数据集大小脱钩,是现代神经网络训练的基石。
关键挑战小批量梯度在极值点附近方差高,可能导致更新方向错误,使收敛变得困难。四大核心考量随机性助逃逸硬件并行性。学习率衰减收敛困难11.4.1随机梯度下降动量法平滑梯度更新动量法通过引入“动量”概念,保留历史梯度的运行平均,以平滑更新方向,加速收敛并减小噪声影响。标准SGDvs动量法标准SGD更新仅依赖当前梯度,易受噪声影响,路径震荡。动量法(Momentum)更新结合历史梯度,方向更稳定,加速穿越峡谷。动量更新公式
其中,超参数β(通常取0.9)控制动量衰减,有效平滑梯度更新,提升训练稳定性。11.4.2批量归一化批量归一化加速收敛批量归一化(BatchNormalization)通过对每个小批量数据重新校准均值和方差,显著提高训练速度和稳定性。核心操作对网络中每个节点的输出
z,用新值
ẑ
替换:
主要优势缓解内部协变量偏移,稳定训练。减少对权重初始化的敏感性。允许使用更高的学习率,加速收敛。具有一定正则化效果。11.4.3选择正确的网络架构任务驱动的架构取舍深度学习架构的选择需基于数据特性。不同架构具有不同的偏好,在特定任务上表现出色。卷积神经网络(CNN)偏好:空间特征共享。相同的特征提取器在空间网格的所有位置都有用。适用任务:图像、视频、具有网格结构的数据。循环神经网络(RNN)偏好:时序更新规则共享。相同的更新规则在具有顺序的数据流的所有点上都是有效的。适用任务:文本、音频、时间序列数据。前馈神经网络(FNN)偏好:通用函数逼近。无特定结构假设,通过堆叠层学习复杂映射。适用任务:表格数据、特征关系不明确的任务。11.4.3选择正确的网络架构自动化架构搜索策略神经网络架构搜索(NAS)旨在自动化网络设计过程,通过探索巨大的架构空间来寻找最优结构,可视为一种高级的超参数调整。搜索策略进化算法:通过重组(结合两个网络)和变异(增删改层)来迭代优化架构。可微分搜索:将离散架构空间松弛为连续空间,用梯度下降寻找最优解。以及强化学习、贝叶斯优化等。核心挑战:架构评估评估候选网络的价值(性能)是主要瓶颈,因为完整训练成本高昂。加速评估方法在更小数据集或更少epoch上训练。构建超网络,搜索表现更好的网络子图。学习启发式评估函数。11.4.4随机失活随机失活(Dropout)抑制过拟合Dropout通过在训练过程中随机关闭部分神经元,迫使网络学习冗余特征,以增加训练难度为代价,达到提升泛化能力的目标。随机失活的多重视角通过在训练时引入噪声,模型被迫提升对噪声的鲁棒性。随机失活近似于创建一个大型稀疏网络集合。使用随机失活训练的隐藏单元不仅要学会成为有用的隐藏单元,它们还必须学会与可能包含在完整模型中的许多其他可能的隐藏单元集合兼容。将随机失活应用于深层网络的后期层,迫使最终决策通过关注示例的所有抽象特征而不是仅关注一个并忽略其他来做出判断。11.4.5网络优化后的玉米产量预测模型学习率调度与自适应优化动态调整学习率和采用自适应优化使训练过程更加稳定和高效。学习率调度策略固定衰减:在预定的训练周期后,将学习率乘以一个固定的衰减因子。余弦退火:学习率随时间呈余弦函数变化,先平滑下降后可能再次上升,有助于逃离局部最优。自适应优化方法Adam:结合RMSprop和动量方法,使用一阶和二阶矩估计自适应调整学习率。RMSprop:通过对梯度平方的指数加权平均来调整学习率。11.4.5网络优化后的玉米产量预测模型正则化与结构调整组合将多种网络优化技术联合应用于玉米产量预测模型,通过“组合拳”策略,显著提升模型的泛化能力和预测精度。批量归一化随机失活网络结构调整效果提升表
11-1
深度学习模型的网络优化细节11.4.5
网络优化后的玉米产量预测模型图
11-17
优化后的深度学习模型的预测效果11.4.6讨论SNP数据特性的限制在SNP数据建模中,深度学习模型表现不及传统机器学习,其根源在于SNP数据的固有特性与深度网络的基本假设存在冲突。非独立性SNP位点间存在连锁不平衡,彼此高度相关,违背了前馈网络假设输入特征相互独立的前提。非连续性SNP位点是基因组上的离散分布,难以利用CNN
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年温州苍南县沿浦镇面向社会公开招聘编外用工人员2人建设笔试备考题库及答案解析
- 2026年机器电工技术练习题库完整版附答案详解
- 2026年卫生法律法规试题【研优卷】附答案详解
- 2025年铁路工程监理岗前综合培训试题及答案
- 2025广西河池市环江毛南族自治县招聘国有企业高层管理人员审核合格及笔试历年参考题库附带答案详解
- 2025包头市喜桂图文化旅游开发有限公司招聘讲解员15人笔试参考题库附带答案详解
- 教育培训机构教学制度
- 2026年机关干部服务群众意识考核题库
- 2026年化学品储存与使用安全操作考试题
- 2026年全科医师考试练习题
- 中医九大体质详解讲课件
- 钢轨接头认知接头分类及结构形式课件
- 2025年北师大版(新版)数学七年级下册期中模拟试卷(含答案)
- 不良反应培训课件
- 《法律职业伦理》课件-第三讲 检察官职业伦理
- 盐城市首届“金联杯”防范和打击非法金融活动竞赛练习卷含答案
- 初一《皇帝的新装》课本剧剧本
- 教师招聘考试-教育综合
- 肺结节病诊断治疗指南
- (高清版)TDT 1068-2022 国土空间生态保护修复工程实施方案编制规程
- 药膳中药创新创业项目计划书
评论
0/150
提交评论