当前位置: 首页 > news >正文

推广平台软件seo推广外包报价表

推广平台软件,seo推广外包报价表,国内比较牛的网站建设,百度竞价推广思路参考#xff1a;https://blog.csdn.net/u013733326/article/details/79971488希望大家直接到上面的网址去查看代码#xff0c;下面是本人的笔记到目前为止#xff0c;我们一直在使用numpy来自己编写神经网络。现在我们将一步步的使用深度学习的框架来很容易的构建属于自己的…参考https://blog.csdn.net/u013733326/article/details/79971488希望大家直接到上面的网址去查看代码下面是本人的笔记到目前为止我们一直在使用numpy来自己编写神经网络。现在我们将一步步的使用深度学习的框架来很容易的构建属于自己的神经网络。我们将学习TensorFlow这个框架初始化变量建立一个会话训练的算法实现一个神经网络使用框架编程不仅可以节省你的写代码时间还可以让你的优化速度更快。1.导入TensorFlow库import numpy asnpimport h5pyimport matplotlib.pyplotaspltimport tensorflowastffromtensorflow.python.framework import opsimport tf_utilsimport time#%matplotlib inline #如果你使用的是jupyter notebook取消注释np.random.seed(1)2.说明TensorFlow代码的实现流程对于Tensorflow的代码实现而言实现代码的结构如下创建Tensorflow变量(此时尚未直接计算)实现Tensorflow变量之间的操作定义初始化Tensorflow变量创建Session运行Session此时之前编写操作都会在这一步运行。1)所以举例如果要计算损失函数实现流程为#首先创建变量这里设置了常量y_hat tf.constant(36,namey_hat) #定义y_hat为固定值36y tf.constant(39,namey) #定义y为固定值39#实现变量之间的操作定义即损失函数的计算loss tf.Variable((y-y_hat)**2,nameloss) #为损失函数创建一个变量#声明变量的初始化操作inittf.global_variables_initializer() #运行之后的初始化(session.run(init))#创建session并打印输出#损失变量将被初始化并准备计算with tf.Session()assession:#初始化变量session.run(init)#运行session这样之前定义的变量间的操作都会在这里运行,打印损失值print(session.run(loss))返回9查看初始化和运行前后变量的变化#首先创建变量y_hat tf.constant(36,namey_hat) #定义y_hat为固定值36y tf.constant(39,namey) #定义y为固定值39#实现变量之间的操作定义即损失函数的计算loss tf.Variable((y-y_hat)**2,nameloss) #为损失函数创建一个变量print(y_hat)print(y)print(loss)#声明变量的初始化操作inittf.global_variables_initializer() #运行之后的初始化(session.run(init))#创建session并打印输出#损失变量将被初始化并准备计算with tf.Session()assession:#初始化变量session.run(init)print(y_hat)print(y)print(loss)#运行session这样之前定义的变量间的操作都会在这里运行,打印损失值print(session.run(loss))print(y_hat)print(y)返回Tensor(y_hat_2:0, shape(), dtypeint32)Tensor(y_2:0, shape(), dtypeint32)Tensor(y_hat_2:0, shape(), dtypeint32)Tensor(y_2:0, shape(), dtypeint32)9Tensor(y_hat_2:0, shape(), dtypeint32)Tensor(y_2:0, shape(), dtypeint32)再运行一遍可见版本号会变Tensor(y_hat_3:0, shape(), dtypeint32)Tensor(y_3:0, shape(), dtypeint32)Tensor(y_hat_3:0, shape(), dtypeint32)Tensor(y_3:0, shape(), dtypeint32)9Tensor(y_hat_3:0, shape(), dtypeint32)Tensor(y_3:0, shape(), dtypeint32)如果注释掉初始化就会报错#首先创建变量y_hat tf.constant(36,namey_hat) #定义y_hat为固定值36y tf.constant(39,namey) #定义y为固定值39#实现变量之间的操作定义即损失函数的计算loss tf.Variable((y-y_hat)**2,nameloss) #为损失函数创建一个变量print(y_hat)print(y)print(loss)#声明变量的初始化操作#inittf.global_variables_initializer() #运行之后的初始化(session.run(init))#创建session并打印输出#损失变量将被初始化并准备计算with tf.Session()assession:#初始化变量#session.run(init)#运行session这样之前定义的变量间的操作都会在这里运行,打印损失值print(session.run(loss))print(y_hat)print(y)返回Tensor(y_hat_5:0, shape(), dtypeint32)Tensor(y_5:0, shape(), dtypeint32)...FailedPreconditionError: Attempting to use uninitialized value loss_5[[{{node _retval_loss_5_0_0}} _Retval[TDT_INT32, index0, _device/job:localhost/replica:0/task:0/device:CPU:0](loss_5)]]因此当我们为损失函数创建一个变量时我们简单地将损失定义为其他数量的函数但没有评估它的价值。为了评估它我们需要运行inittf.global_variables_initializer()初始化损失变量在最后一行我们最后能够评估损失的值并打印它的值。所以inittf.global_variables_initializer()的作用对应的是声明为变量的损失函数loss tf.Variable((y-y_hat)**2,nameloss)2)另外一个更简单的函数#创建变量a tf.constant(2)b tf.constant(10)#实现变量之间的操作定义ctf.multiply(a,b)print(c)返回Tensor(Mul:0, shape(), dtypeint32)正如预料中一样我们并没有看到结果20不过我们得到了一个Tensor类型的变量没有维度数字类型为int32。我们之前所做的一切都只是把这些东西放到了一个“计算图(computation graph)”中而我们还没有开始运行这个计算图为了实际计算这两个数字我们需要创建一个会话并运行它#创建会话sesstf.Session()#使用会话运行操作print(sess.run(c)) #返回20⚠️因为这里没有声明变量所以不用使用inittf.global_variables_initializer()来初始化变量总结一下记得初始化变量然后创建一个session来运行它。3.会话可以使用两种方法来创建并使用session方法一sess tf.Session()result sess.run(...,feed_dict {...})sess.close()方法二with tf.Session assess:result sess.run(...,feed_dict {...})4.占位符(placeholder)占位符是一个对象它的值只能在稍后指定要指定占位符的值可以使用一个feed_dict变量来传入接下来我们为x创建一个占位符这将允许我们在稍后运行会话时传入一个数字。#利用feed_dict来改变x的值x tf.placeholder(tf.int64,namex)print(x)print(sess.run(2 * x,feed_dict{x:3}))sess.close()返回Tensor(x:0, dtypeint64)6当我们第一次定义x时我们不必为它指定一个值。 占位符只是一个变量我们会在运行会话时将数据分配给它。5.线性函数让我们通过计算以下等式来开始编程YWXb,W和X是随机矩阵b是随机向量。我们计算WXb其中WX和b是从随机正态分布中抽取的。 W的维度是(4,3)X是(3,1)b是(4,1)。我们开始定义一个shape(3,1)的常量XX tf.constant(np.random.randn(3,1), name X)代码def linear_function():实现一个线性功能初始化W类型为tensor的随机变量维度为(4,3)初始化X类型为tensor的随机变量维度为(3,1)初始化b类型为tensor的随机变量维度为(4,1)返回result- 运行了session后的结果运行的是Y WX bnp.random.seed(1) #指定随机种子X np.random.randn(3,1)W np.random.randn(4,3)b np.random.randn(4,1)Ytf.add(tf.matmul(W,X),b) #tf.matmul是矩阵乘法#Y tf.matmul(W,X) b #也可以以写成这样子#创建一个session并运行它sesstf.Session()resultsess.run(Y)#session使用完毕关闭它sess.close()return result测试print(result str(linear_function()))返回result [[-2.15657382][2.95891446][-1.08926781][-0.84538042]]6.计算sigmoid函数TensorFlow提供了多种常用的神经网络的函数比如tf.softmax和tf.sigmoid。我们将使用占位符变量x当运行这个session的时候我们西药使用使用feed_dict来输入z我们将创建占位符变量x使用tf.sigmoid来定义操作最后运行session我们会用到下面的代码tf.placeholder(tf.float32, name “x”)sigmoid tf.sigmoid(x)sess.run(sigmoid, feed_dict {x: z})实现def sigmoid(z):实现使用sigmoid函数计算z参数z-输入的值标量或矢量返回result-用sigmoid计算z的值#创建一个占位符x名字叫“x”x tf.placeholder(tf.float32,namex)#计算sigmoid(z)sigmoidtf.sigmoid(x)#创建一个会话使用方法二with tf.Session()assess:result sess.run(sigmoid,feed_dict{x:z})return result测试print (sigmoid(0) str(sigmoid(0)))print (sigmoid(12) str(sigmoid(12)))返回sigmoid(0) 0.5sigmoid(12) 0.99999387.计算成本函数还可以使用内置函数计算神经网络的成本。因此不需要编写代码来计算成本函数的a[2](i)和y(i)如tensorflow提供了用来计算成本的函数tf.nn.sigmoid_cross_entropy_with_logits(logits ..., labels ...)logits前向传播的结果AL如果使用的是softmax这里传入的是ZLlabels真正的结果Y8.使用独热编码(01编码)很多时候在深度学习中y向量的维度是从0到C−1的C是指分类的类别数量如果C4那么对y而言你可能需要有以下的转换方式:这叫做独热编码(”one hot” encoding)因为在转换后的表示中每列的一个元素是“hot”(意思是设置为1)。 要在numpy中进行这种转换您可能需要编写几行代码。 在tensorflow中只需要使用一行代码tf.one_hot(labels,depth,axis)下面我们要做的是取一个标签矢量(即图片的判断结果)和C类总数返回一个独热编码。def one_hot_matrix(lables,C):创建一个矩阵其中第i行对应第i个类号第j列对应第j个训练样本所以如果第j个样本对应着第i个标签那么entry (i,j)将会是1参数lables-标签向量C-分类数返回one_hot-独热矩阵#创建一个tf.constant赋值为C名字叫CC tf.constant(C,nameC)#使用tf.one_hot注意一下axisone_hot_matrix tf.one_hot(indiceslables , depthC , axis0)#创建一个sessionsesstf.Session()#运行sessionone_hotsess.run(one_hot_matrix)#关闭sessionsess.close()return one_hot测试labels np.array([1,2,3,0,2,1])one_hot one_hot_matrix(labels,C4)print(str(one_hot))返回[[0. 0. 0. 1. 0. 0.][1. 0. 0. 0. 0. 1.][0. 1. 0. 0. 1. 0.][0. 0. 1. 0. 0. 0.]]9.初始化参数学习如何用0或者1初始化一个向量我们要用到tf.ones()和tf.zeros()给定这些函数一个维度值那么它们将会返回全是1或0的满足条件的向量/矩阵我们来看看怎样实现它们def ones(shape):创建一个维度为shape的变量其值全为1参数shape-你要创建的数组的维度返回ones-只包含1的数组#使用tf.ones()onestf.ones(shape)#创建会话sesstf.Session()#运行会话onessess.run(ones)#关闭会话sess.close()return ones测试print (ones str(ones([3])))返回ones [1. 1. 1.]
http://www.zqtcl.cn/news/723071/

相关文章:

  • 一个销售网站的设计方案重庆广告制作加工厂
  • 宽带固定ip的怎么做网站服务器网站设计说明书整合
  • 织梦装修公司网站模板wordpress主题代码编辑教程
  • 外边做一个网站要多少钱关键词的选取原则
  • 做网站需要备案吗wordpress会员邮件通知
  • 如何在百度创建网站欧宇公司网络建设方案
  • 网站网页设计基本理论视频模板套用免费
  • 外贸人常用的网站伪静态网站
  • 优质的聊城做网站网站建设论文 网站建设论文
  • 网站开发毕设的需求分析设计网站推荐
  • 武夷山景区网站建设优点网站建设服务合同要交印花税吗
  • 电子商务网站建设行情seo推广软件品牌
  • 荆州市住房和城乡建设厅官方网站网站开发加维护需要多少钱
  • 手机网站 cms宁波网站建设团队排名
  • 深圳网站建设怎么样微商城建设
  • 网站建设前台后台教程大安移动网站建设
  • 建设网站的程序国庆节网页设计素材
  • 彩票网站做代理人事外包公司
  • 免费的网站开发工具网站app开发
  • 厦门的服装商城网站建设语种网站建设
  • 云服务器怎么做网站东莞黄江网站建设
  • 地方网站模板德清县新巿镇城市建设网站
  • 昆明传媒网站建设模板兔自用WordPress
  • 高企达建设有限公司网站青村网站建设
  • 网站设计公司服务连锁品牌网站建设
  • 石家庄桥西网站制作公司wordpress 使用插件下载
  • 深圳外贸建站网络推广哪家好制造业小程序网站开发
  • 电子商务网站开发步骤宁波制作网站知名
  • 网站建设所需网站是别人做的 ftp账号吗
  • 网站集约化建设情况的汇报做网站为什么要买网站空间