资料第七天画图_第1页
资料第七天画图_第2页
资料第七天画图_第3页
资料第七天画图_第4页
资料第七天画图_第5页
已阅读5页,还剩5页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

卷积神经网络:卷积层:32个fi lter, 观察窗口的大小1*1, 3*3,5*5, 步长1, padding=“1” 1000, 230, 240, 3 tensorfl ow: padding=“SAME”230, 240 ,32 激活层:sigmoid, 使用relu 池化层: 2*2 ,步长2池化层: 4*4, 3 4个目标值 :”NZPP” N Z P P 26中可能性:ABCDEFGHIJKLMNOPQRSTUVWXYZ 26种类别:ABCDEFGHIJKLMNOPQRSTUVWXYZ 26种类别:ABCDEFGHIJKLMNOPQRSTUVWXYZ 26种类别:ABCDEFGHIJKLMNOPQRSTUVWXYZ 26种类别:ABCDEFGHIJKLMNOPQRSTUVWXYZ 手写数字: 输出10个值,softmax 10个类别的概率 None, 10 ABCDEFGHIJKLMNOPQRSTUVWXYZ 0.01,0.002 0.1,0.02 0.1,0.02 0.1,0.02 N Z P P One-hot 0,0,0,0,0,0,0,0,1,0,0,0,0,0,0,0 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1 0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0 0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0 5个目标值,数字,小写 None, 4 * 26 0, 1, 2, 3, 4, 5, 6, 7, 8,25 交叉熵损失计算: N ZPP 目标值: 0,0,0,0,.1,0,0,0,0 13251515 0,0,0,0,.0,0,0,.0,10,0,0,0,.0,0,1,0,00,0,0,0,.0,0,1,0,0 y_predict= 0.01,0.0020.03 . 经过网络的输出 4*26=104 某个样本s = - (y_true log(y_predict) softmax: ex/ex+e.) 1.2,23,34,10,9. 104 0.12 0.1 . . . . . . . . . 104 0 0 . . . . . . . . . 1*log()+ 1log()+ 1log()+ 1log() = 损失值 104个输出值 softmax104个概率值 4 * 26 1、处理数据 图片 标签文件 20, 80, 3 一一对应0, “NZPP” 1, “WKHK” 13, 25, 15,15 23, 16, 13,16 tfrecords 二、识别验证码 1、从tfrecords读取 每一张图片image, label 100, 20, 80, 3 100, 4 13, 25, 15, 15, 19, 23, 20, 16. 2、建立模型,直接读取数据输入到模型当中全连接层 x = 100, 20 * 80 * 3 y_predict = 100, 4* 26 w = 20 * 80 * 3, 4 * 26bias= 4 *26 3、建立损失, softmax,交叉熵 (1)、先把100, 4zhuanhauncheng one_hot编码 100, 4, 26 3、梯度下降优化 0,0,0,0,0,1,0,0,0., 0,0,0,1,0,0,0,0,0., 0,0,0,0,0,0,0,0,1., 1,0,0,0,0,0,0,0,0. 0,0,0,0,0,1,0,0,0., 0,0,0,1,0,0,0,0,0., 0,0,0,0,0,0,0,0,0., 0,0,0,0,0,0,0,0,1. 0,0,0,0,0,0,0,0,0., 0,0,0,1,0,0,0,0,0., 0,0,0,0,0,0,0,0,1., 0,0,0,0,0,0,0,0,0. 0,0,0,0,0,0,0,0,0., 0,0,0,0,0,0,0,1,0., 0,0,0,0,0,0,0,0,0., 0,0,0,0,0,0,0,0,0. 目标值预测值 0,0,0,0,0,1,0,0,0., 0,0,0,1,0,0,0,0,0., 0,0,0,0,0,0,0,0,1., 1,0,0,0,0,0,0,0,0. 0,0,0,0,0,1,0,0,0., 0,0,0,1,0,0,0,0,0., 0,0,0,0,0,0,0,0,0., 0,0,0,0,0,0,0,0,1. 0,0,0,0,0,0,0,0,0., 0,0,0,1,0,0,0,0,0., 0,0,0,0,0,0,0,0,1., 0,0,0,0,0,0,0,0,0. 0,0,0,0,0,0,0,0,0., 0,0,0,0,0,0,0,1,0., 0,0,0,0,0,0,0,0,0., 0,0,0,0,0,0,0,0,0. 概率值 13 25 15 15 13 22 15 15 0 1 tf.argmax( 预测值, 2) 100, 4, 26 01 2 准确率计算: 计算机网络七层模型 应用层 http协议 表示层 会话层 传输层 tcp/udp 网络 ip 数据链路层 ppp 物理层 rj45 RPC框架:远程过程调用 tcp/udp http2.0 对于底层协议的一个封装 解决一些传输错误,同步的问题 分布式系统:hadoop, tensorfl ow 视频会议 1、单机多卡:一台服务器上多台设备(GPU) 多机多卡 单机:一批次去训练 GPU:一批次的去训练 GPU CPU tensorfl ow:计算速度提高,设备多 怎么进行分布式? 服务器1 2、集群 服务器2 服务器3 gpu1 gpu2 gpu1 gpu2 参数服务器(parameter server)ps :更新参数,保存参数 工作服务器 worker:主要功能就是去计算 ps worker1 worker2 创建会话,运行会话,创建文件 计算 所有worker默认指定 老大 3、分布式更新参数的模式:协调存储,更新参数 (1)同步模式更新 (2)异步模式更新 worker1: 计算变化值1, w = w - 变化值1 worker2: 计算变化值2, w = w - 变化值2 w_ = 梯度下降 w = w - a(方向) 每批次得出变化量1 w = w- a(方向) 每批次得出变化量2 tensorfl ow:设备命名的规则 /job:ps/task:0 参数服务器可以有多台 /job:ps/task:1 服务器类型 服务器第几台 工作服务器可以有多台 /job:worker/task:0/cpu:0 /job:worker/task:1 /job:worker/task:0/gpu:0 /job:worker/task:0/gpu:1 1、对集群当中的一些ps,worker进行指定 2、创建对应的服务, ps:创建ps服务 join() worker创建worker服务 运行模型,程序,初始化会话等等 指定一个默认的worker(老大)去做, worker如何使用设备: 1、with tf.device(“/job:worker/task:0/gpu:0”): 计算等等 2、with tf.device(tf.train.replica_device_setter( worker_device=“/job:worker/task:0/gpu:0”,cluster=cluster): 计算等等 分布式使用方法: 3、会话 #tf.Session()不支持分布式 分布式会

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论