当前位置: 首页 > news >正文

做淘宝客网站需要备案吗wordpress文章图片显示

做淘宝客网站需要备案吗,wordpress文章图片显示,四川省建设行业数据共享平台官网,百度竞价网站谁做一、前述 本文讲述用Tensorflow框架实现SoftMax模型识别手写数字集#xff0c;来实现多分类。 同时对模型的保存和恢复做下示例。 二、具体原理 代码一#xff1a;实现代码 #!/usr/bin/python # -*- coding: UTF-8 -*- # 文件名: 12_Softmax_regression.pyfrom tensorflow.ex…一、前述 本文讲述用Tensorflow框架实现SoftMax模型识别手写数字集来实现多分类。 同时对模型的保存和恢复做下示例。 二、具体原理 代码一实现代码 #!/usr/bin/python # -*- coding: UTF-8 -*- # 文件名: 12_Softmax_regression.pyfrom tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf# mn.SOURCE_URL http://yann.lecun.com/exdb/mnist/ my_mnist input_data.read_data_sets(MNIST_data_bak/, one_hotTrue)#从本地路径加载进来# The MNIST data is split into three parts: # 55,000 data points of training data (mnist.train)#训练集图片 # 10,000 points of test data (mnist.test), and#测试集图片 # 5,000 points of validation data (mnist.validation).#验证集图片# Each image is 28 pixels by 28 pixels# 输入的是一堆图片None表示不限输入条数784表示每张图片都是一个784个像素值的一维向量 # 所以输入的矩阵是None乘以784二维矩阵 x tf.placeholder(dtypetf.float32, shape(None, 784)) #x矩阵是m行*784列 # 初始化都是0二维矩阵784乘以10个W值 #初始值最好不为0 W tf.Variable(tf.zeros([784, 10]))#W矩阵是784行*10列 b tf.Variable(tf.zeros([10]))#bias也必须有10个y tf.nn.softmax(tf.matmul(x, W) b)# x*w 即为m行10列的矩阵就是y #预测值# 训练 # labels是每张图片都对应一个one-hot的10个值的向量 y_ tf.placeholder(dtypetf.float32, shape(None, 10))#真实值 m行10列 # 定义损失函数交叉熵损失函数 # 对于多分类问题通常使用交叉熵损失函数 # reduction_indices等价于axis指明按照每行加还是按照每列加 cross_entropy tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y),reduction_indices[1]))#指明按照列加和 一列是一个类别 train_step tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)#将损失函数梯度下降 #0.5是学习率# 初始化变量 sess tf.InteractiveSession()#初始化Session tf.global_variables_initializer().run()#初始化所有变量 for _ in range(1000):batch_xs, batch_ys my_mnist.train.next_batch(100)#每次迭代取100行数据sess.run(train_step, feed_dict{x: batch_xs, y_: batch_ys}) #每次迭代内部就是求梯度然后更新参数 # 评估# tf.argmax()是一个从tensor中寻找最大值的序号 就是分类号tf.argmax就是求各个预测的数字中概率最大的那一个 correct_prediction tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))# 用tf.cast将之前correct_prediction输出的bool值转换为float32再求平均 accuracy tf.reduce_mean(tf.cast(correct_prediction, tf.float32))# 测试 print(accuracy.eval({x: my_mnist.test.images, y_: my_mnist.test.labels}))# 总结 # 1定义算法公式也就是神经网络forward时的计算 # 2定义loss选定优化器并指定优化器优化loss # 3迭代地对数据进行训练 # 4在测试集或验证集上对准确率进行评测 代码二保存模型 # 有时候需要把模型保持起来有时候需要做一些checkpoint在训练中 # 以致于如果计算机宕机我们还可以从之前checkpoint的位置去继续 # TensorFlow使得我们去保存和加载模型非常方便仅需要去创建Saver节点在构建阶段最后 # 然后在计算阶段去调用save()方法from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf # mn.SOURCE_URL http://yann.lecun.com/exdb/mnist/ my_mnist input_data.read_data_sets(MNIST_data_bak/, one_hotTrue)# The MNIST data is split into three parts: # 55,000 data points of training data (mnist.train) # 10,000 points of test data (mnist.test), and # 5,000 points of validation data (mnist.validation).# Each image is 28 pixels by 28 pixels# 输入的是一堆图片None表示不限输入条数784表示每张图片都是一个784个像素值的一维向量 # 所以输入的矩阵是None乘以784二维矩阵 x tf.placeholder(dtypetf.float32, shape(None, 784)) # 初始化都是0二维矩阵784乘以10个W值 W tf.Variable(tf.zeros([784, 10])) b tf.Variable(tf.zeros([10]))y tf.nn.softmax(tf.matmul(x, W) b)# 训练 # labels是每张图片都对应一个one-hot的10个值的向量 y_ tf.placeholder(dtypetf.float32, shape(None, 10)) # 定义损失函数交叉熵损失函数 # 对于多分类问题通常使用交叉熵损失函数 # reduction_indices等价于axis指明按照每行加还是按照每列加 cross_entropy tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y),reduction_indices[1])) train_step tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)# 初始化变量 init tf.global_variables_initializer() # 创建Saver()节点 saver tf.train.Saver()#在运算之前初始化之后n_epoch 1000with tf.Session() as sess:sess.run(init)for epoch in range(n_epoch):if epoch % 100 0:save_path saver.save(sess, ./my_model.ckpt)#每跑100次save一次模型可以保证容错性#直接保存session即可。 batch_xs, batch_ys my_mnist.train.next_batch(100)#每一批次跑的数据 用m行数据/迭代次数来计算出来。sess.run(train_step, feed_dict{x: batch_xs, y_: batch_ys})best_theta W.eval()save_path saver.save(sess, ./my_model_final.ckpt)#保存最后的模型session实际上保存的上面所有的数据 代码三恢复模型 from tensorflow.examples.tutorials.mnist import input_data import tensorflow as tf # mn.SOURCE_URL http://yann.lecun.com/exdb/mnist/ my_mnist input_data.read_data_sets(MNIST_data_bak/, one_hotTrue)# The MNIST data is split into three parts: # 55,000 data points of training data (mnist.train) # 10,000 points of test data (mnist.test), and # 5,000 points of validation data (mnist.validation).# Each image is 28 pixels by 28 pixels# 输入的是一堆图片None表示不限输入条数784表示每张图片都是一个784个像素值的一维向量 # 所以输入的矩阵是None乘以784二维矩阵 x tf.placeholder(dtypetf.float32, shape(None, 784)) # 初始化都是0二维矩阵784乘以10个W值 W tf.Variable(tf.zeros([784, 10])) b tf.Variable(tf.zeros([10]))y tf.nn.softmax(tf.matmul(x, W) b) # labels是每张图片都对应一个one-hot的10个值的向量 y_ tf.placeholder(dtypetf.float32, shape(None, 10))saver tf.train.Saver()with tf.Session() as sess: saver.restore(sess, ./my_model_final.ckpt)#把路径下面所有的session的数据加载进来 y y_head还有模型都保存下来了。# 评估# tf.argmax()是一个从tensor中寻找最大值的序号tf.argmax就是求各个预测的数字中概率最大的那一个correct_prediction tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))# 用tf.cast将之前correct_prediction输出的bool值转换为float32再求平均accuracy tf.reduce_mean(tf.cast(correct_prediction, tf.float32))# 测试print(accuracy.eval({x: my_mnist.test.images, y_: my_mnist.test.labels})) 转载于:https://www.cnblogs.com/LHWorldBlog/p/8661434.html
http://www.zqtcl.cn/news/587139/

相关文章:

  • 网络违法犯罪举报网站哪里有制作网站服务
  • 临沂怎么做网站网站 单页
  • 科技信息网站系统建设方案建筑设计专业世界大学排名
  • 做网站运营的简历小型视频网站建设
  • 福建省亿力电力建设有限公司网站网页设计html代码大全动物
  • 如何建网站赚取佣金企业网站的在线推广方法有
  • 嵌入式转行到网站开发免费秒玩小游戏
  • 采购网站排名不需要证件做网站
  • wordpress添加用户登录东莞网络公司seo优化
  • 哪些企业网站使用水墨风格设计免费
  • 河北邯郸做网站的公司哪家好云南建站公司
  • 网站开发如何给用户发邮件wordpress中文插件下载
  • 专业外贸网站建设公司排名网站错误列表
  • 魔站建站系统哪家好扬州网站开发公司电话
  • 合伙做网站网络公司网站建设首页
  • 网站建设项目经理深圳在线官网
  • 网站开发技术及应用wordpress自定义类型使用模板
  • 网站颜色 字体代销网站源码
  • 做二手车有哪些网站有哪些手续翠竹林wordpress主题
  • 商城网站开发报价单献县做网站价格
  • 做网站和推广需要多少钱诚信企业查询系统
  • c 2015 做网站网站设计技术有哪些?
  • 安丘网站开发主播网站建立
  • 档案网站的建设wordpress英文主题 汉化
  • 网站建设礼品南充网站建设工作室
  • 电子商务网站建设概念wordpress 扫码支付宝
  • 上海做网站谁好营销型网站框架图
  • 太仓企业网站建设价格wordpress自动同步插件
  • 微信网站是什么淄博周村网站建设哪家好
  • 廊坊网站建设价格网站建设维护的方案