版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第python人工智能tensorflow函数tf.nn.dropout使用方法目录前言tf.nn.dropout函数介绍例子代码keep_prob=0.5keep_prob=1
前言
神经网络在设置的神经网络足够复杂的情况下,可以无限逼近一段非线性连续函数,但是如果神经网络设置的足够复杂,将会导致过拟合(overfitting)的出现,就好像下图这样。
看到这个蓝色曲线,我就知道:
很明显蓝色曲线是overfitting的结果,尽管它很好的拟合了每一个点的位置,但是曲线是歪歪曲曲扭扭捏捏的,这个的曲线不具有良好的鲁棒性,在实际工程实验中,我们更希望得到如黑色线一样的曲线。
tf.nn.dropout函数介绍
tf.nn.dropout是tensorflow的好朋友,它的作用是为了减轻过拟合带来的问题而使用的函数,它一般用在每个连接层的输出。
Dropout就是在不同的训练过程中,按照一定概率使得某些神经元停止工作。也就是让每个神经元按照一定的概率停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重依然存在,下次更新时可能会使用到它。
defdropout(x,keep_prob,noise_shape=None,seed=None,name=None)
x一般是每一层的输出
keep_prob,保留keep_prob的神经元继续工作,其余的停止工作与更新
在实际定义每一层神经元的时候,可以加入dropout。
defadd_layer(inputs,in_size,out_size,n_layer,activation_function=None,keep_prob=1):
layer_name='layer%s'%n_layer
with_scope(layer_name):
with_scope("Weights"):
Weights=tf.Variable(tf.random_normal([in_size,out_size]),name="Weights")
tf.summary.histogram(layer_name+"/weights",Weights)
with_scope("biases"):
biases=tf.Variable(tf.zeros([1,out_size])+0.1,name="biases")
tf.summary.histogram(layer_name+"/biases",biases)
with_scope("Wx_plus_b"):
Wx_plus_b=tf.matmul(inputs,Weights)+biases
#dropout一般加载每个神经层的输出
Wx_plus_b=tf.nn.dropout(Wx_plus_b,keep_prob)
#看这里看这里,dropout在这里。
tf.summary.histogram(layer_name+"/Wx_plus_b",Wx_plus_b)
ifactivation_function==None:
outputs=Wx_plus_b
else:
outputs=activation_function(Wx_plus_b)
tf.summary.histogram(layer_name+"/outputs",outputs)
returnoutputs
但需要注意的是,神经元的输出层不可以定义dropout参数。因为输出层就是输出的是结果,在输出层定义参数的话,就会导致输出结果被dropout掉。
例子
本次例子使用sklearn.datasets,在进行测试的时候,我们只需要改变最下方keep_prob:0.5的值即可,1代表不进行dropout。
代码
importtensorflowastf
fromsklearn.datasetsimportload_digits
fromsklearn.model_selectionimporttrain_test_split
fromsklearn.preprocessingimportLabelBinarizer
digits=load_digits()
X=digits.data
y=digits.target
y=LabelBinarizer().fit_transform(y)
X_train,X_test,Y_train,Y_test=train_test_split(X,y,test_size=500)
defadd_layer(inputs,in_size,out_size,n_layer,activation_function=None,keep_prob=1):
layer_name='layer%s'%n_layer
with_scope(layer_name):
with_scope("Weights"):
Weights=tf.Variable(tf.random_normal([in_size,out_size]),name="Weights")
tf.summary.histogram(layer_name+"/weights",Weights)
with_scope("biases"):
biases=tf.Variable(tf.zeros([1,out_size])+0.1,name="biases")
tf.summary.histogram(layer_name+"/biases",biases)
with_scope("Wx_plus_b"):
Wx_plus_b=tf.matmul(inputs,Weights)+biases
Wx_plus_b=tf.nn.dropout(Wx_plus_b,keep_prob)
tf.summary.histogram(layer_name+"/Wx_plus_b",Wx_plus_b)
ifactivation_function==None:
outputs=Wx_plus_b
else:
outputs=activation_function(Wx_plus_b)
tf.summary.histogram(layer_name+"/outputs",outputs)
returnoutputs
defcompute_accuracy(x_data,y_data,prob=1):
globalprediction
y_pre=sess.run(prediction,feed_dict={xs:x_data,keep_prob:prob})
correct_prediction=tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1))
accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
result=sess.run(accuracy,feed_dict={xs:x_data,ys:y_data,keep_prob:prob})
returnresult
keep_prob=tf.placeholder(tf.float32)
xs=tf.placeholder(tf.float32,[None,64])
ys=tf.placeholder(tf.float32,[None,10])
l1=add_layer(xs,64,100,'l1',activation_function=tf.nn.tanh,keep_prob=keep_prob)
l2=add_layer(l1,100,100,'l2',activation_function=tf.nn.tanh,keep_prob=keep_prob)
prediction=add_layer(l1,100,10,'l3',activation_function=tf.nn.softmax,keep_prob=1)
with_scope("loss"):
loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=ys,logits=prediction),name='loss')
tf.summary.scalar("loss",loss)
train=tf.train.AdamOptimizer(0.01).minimize(loss)
init=tf.initialize_all_variables()
merged=tf.summary.merge_all()
withtf.Session()assess:
sess.run(init)
train_writer=tf.summary.FileWriter("logs/strain",sess.graph)
test_writer=tf.summary.FileWriter("logs/test",sess.graph)
foriinrange(5001):
sess.run(train,feed_dict={xs:X_train,ys:Y_train,keep_prob:0.5})
ifi%500==0:
print("训练%d次的识别率为:%f。"%((i+1),compute_accuracy(X_test,Y_test,prob=0.5)))
train_result=sess.run(merged,feed_dict={xs:X_train,ys:Y_train,keep_prob:0.5})
test_result=sess.run(merged,feed_dict={xs:X_test,ys:Y_test,keep_prob:0.5})
train_writer.add_summary(train_result,i)
test_writer.add_summary(test_result,i)
keep_prob=0.5
训练结果为:
训练1次的识别率为:0.086000。
训练501次的识别率为:0.890000。
训练1001次的识别率为:0.938000。
训练1501次的识别率为:0.952000。
训练2001次的识别率为:0.952000。
训练2501次的识别率为:0.946000。
训练3001次的识别率为:0.940000。
训练3501次的识别率为:0.932000。
训练4001次的识别率为:0.970000。
训练4501次的识别率为:0.952000。
训练5001次的识别率为:0.950000。
这是keep_prob=0.5时tensorboard中的loss的图像:
keep_prob=1
训练结果为:
训练1次的识别率为:0.160000。
训练501次的识别率为:0.754000。
训练1001次的识别率为:0.846000。
训练1501次的识别率为:0.854000。
训练2001次的识别率为:0.852000。
训练2501次的识别率为:0.852000。
训练3001次的识别率为:0.860000。
训练3501次的识别率为:0.
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年新课标 I 卷高考化学易错题模考(含解析)
- 2026年高考全国卷化学工艺流程冲刺模拟卷(含解析)
- 2026年新高考全国卷一数学阅读理解专题突破易错题卷含解析
- 小学6年级暑假语文写作专项练习计划(写景+叙事+抒情+应用文)
- 原液准备老成黄化操作工操作管理测试考核试卷含答案
- 石蜡装置操作工安全意识强化水平考核试卷含答案
- 旋转(第1课时旋转的概念)课件2025-2026学年苏科版数学七年级下册
- 珍珠岩制品工班组考核考核试卷含答案
- 个人职业规划现状分析
- 2026年高职(数字媒体艺术设计)网页设计制作综合测试题及答案
- 电力市场交易培训
- DB1331∕T 054-2023 雄安新区建筑节能与绿色建筑工程施工质量验收标准
- 儿童呼吸专科进修心得
- GB/T 157-2025产品几何技术规范(GPS)圆锥的锥度与锥角系列
- DB31/T 552-2017大型商业建筑合理用能指南
- 药品营销策划合同协议
- 煤矿围岩观测制度
- 2025年河南建筑职业技术学院单招职业技能测试题库附答案
- DB51T 2772-2021 四川省医疗护理员服务规范
- HG∕T 4540-2013 2,2-二溴-2-氰基乙酰胺
- 煤矿采矿技术文件用图形符号
评论
0/150
提交评论