当前位置: 首页 > news >正文

微信网站制作软件有哪些网站页面制作多少钱

微信网站制作软件有哪些,网站页面制作多少钱,不需要备案的服务器,大连网络营销公司哪家好关于神经网络权重初始值的设置的研究一、权重初始值二、权重初始值会影响隐藏层的激活值分布三、Xavier初始值四、He初始值五、基于MNIST数据集的权重初始值的比较一、权重初始值 权值衰减—抑制过拟合、提高泛化能力。 所谓权值衰减#xff0c;即#xff0c;以减小权重参数… 关于神经网络权重初始值的设置的研究一、权重初始值二、权重初始值会影响隐藏层的激活值分布三、Xavier初始值四、He初始值五、基于MNIST数据集的权重初始值的比较一、权重初始值 权值衰减—抑制过拟合、提高泛化能力。 所谓权值衰减即以减小权重参数的值为目的进行学习。 所以说人们一开始就想把权重初始值设置的比较小。 那如果权重初始值全设为0或者一样的值呢那可不行如果输入层权重为0那么第二层神经元都到的全是0如果第二层是乘法节点拿上图举例子xy0所以返回来的两个梯度是一个样的。就没意义了。所有权重共同进退有何意义权重共同进退术语叫做权重均一化。 二、权重初始值会影响隐藏层的激活值分布 先看斯坦福大学做的一个实验 向一个5层神经网络传入随机生成的输入数据用直方图绘制各层激活值的数据分布。 实验目的是通过改变标准差观察激活值的分布如何变化。 实验代码 这个实验各层激活值的结果保存在activations变量中。 import numpy as np import matplotlib.pyplot as pltdef sigmoid(x):return 1 / (1 np.exp(-x))def ReLU(x):return np.maximum(0, x)def tanh(x):return np.tanh(x)input_data np.random.randn(1000, 100) # 1000个数据 node_num 100 # 各隐藏层的节点神经元数 hidden_layer_size 5 # 隐藏层有5层 activations {} # 激活值的结果保存在这里x input_datafor i in range(hidden_layer_size):if i ! 0:x activations[i-1]# 改变初始值进行实验w np.random.randn(node_num, node_num) * 1# w np.random.randn(node_num, node_num) * 0.01# w np.random.randn(node_num, node_num) * np.sqrt(1.0 / node_num)# w np.random.randn(node_num, node_num) * np.sqrt(2.0 / node_num)a np.dot(x, w)# 将激活函数的种类也改变来进行实验z sigmoid(a)# z ReLU(a)# z tanh(a)activations[i] z# 绘制直方图 for i, a in activations.items():plt.subplot(1, len(activations), i1)plt.title(str(i1) -layer)if i ! 0: plt.yticks([], [])# plt.xlim(0.1, 1)# plt.ylim(0, 7000)plt.hist(a.flatten(), 30, range(0,1)) plt.show() 首先来看使用的权重初始值是标准差为1的高斯分布时激活值的分布w np.random.randn(node_num, node_num) * 1。 再看使用的权重初始值是标准差为0.01的高斯分布时激活值的分布 看到使用的权重初始值是标准差为1的高斯分布时激活值偏向0和1的分布。这会导致随着输出不断靠近0或1导数的值逐渐接近0反向传播中梯度的值不断变小最后会消失。这就是所谓的梯度消失。 使用的权重初始值是标准差为0.01的高斯分布时不会发生梯度消失但是激活值分布偏向0.5说明表现力有大问题。如果100个神经元输出都几乎相同那我可以用1个神经元表达100个神经元干的事。术语所谓的表现力受限问题。 三、Xavier初始值 Xavier提出如果前一层的节点数为n则初始值使用标准差为根号n分之一的分布。 代码里就这句话w np.random.randn(node_num, node_num) * np.sqrt(1.0 / node_num) 效果如下呈现了比之前更有广度的分布。 Xavier的初始值是以激活函数是线性函数为前提而推导得出。 四、He初始值 Kaiming He提出当前一层的节点数为n时He的初始值使用标准差为根号(n分之2)的高斯分布。 我们研究一下激活函数用ReLU时不同权重初始值下每一层激活值分布的区别。 权重初始值为He初始值时 权重初始值为Xavier时 权重初始值为标准差为0.01的高斯分布时 明显ReLU更适合用He初始值。因为分布广度好表现力好。 初始值为Xavier时随层次加深往0那边偏我猜如果加深网络会出现梯度消失现象。 五、基于MNIST数据集的权重初始值的比较 这个对比揭示了很多时候权重初始值的设定关系到神经网络的学习能否成功。 代码 import os import syssys.path.append(os.pardir) # 为了导入父目录的文件而进行的设定 import numpy as np import matplotlib.pyplot as plt from dataset.mnist import load_mnist from common.util import smooth_curve from common.multi_layer_net import MultiLayerNet from common.optimizer import SGD# 0:读入MNIST数据 (x_train, t_train), (x_test, t_test) load_mnist(normalizeTrue)train_size x_train.shape[0] batch_size 128 max_iterations 2000# 1:进行实验的设置 weight_init_types {std0.01: 0.01, Xavier: sigmoid, He: relu} optimizer SGD(lr0.01)networks {} train_loss {} for key, weight_type in weight_init_types.items():networks[key] MultiLayerNet(input_size784, hidden_size_list[100, 100, 100, 100],output_size10, weight_init_stdweight_type)train_loss[key] []# 2:开始训练 for i in range(max_iterations):batch_mask np.random.choice(train_size, batch_size)x_batch x_train[batch_mask]t_batch t_train[batch_mask]for key in weight_init_types.keys():grads networks[key].gradient(x_batch, t_batch)optimizer.update(networks[key].params, grads)loss networks[key].loss(x_batch, t_batch)train_loss[key].append(loss)if i % 100 0:print( iteration: str(i) )for key in weight_init_types.keys():loss networks[key].loss(x_batch, t_batch)print(key : str(loss))# 3.绘制图形 markers {std0.01: o, Xavier: s, He: D} x np.arange(max_iterations) for key in weight_init_types.keys():plt.plot(x, smooth_curve(train_loss[key]), markermarkers[key], markevery100, labelkey) plt.xlabel(iterations) plt.ylabel(loss) plt.ylim(0, 2.5) plt.legend() plt.show()
http://www.zqtcl.cn/news/451036/

相关文章:

  • 浏阳做网站报价高校网站站群建设公司
  • 海口网站提升排名网站建设与管理考试题
  • 做网站的算什么行业ui视觉设计常用软件是什么
  • 成都网站建设公司哪家好西安搬家公司哪家便宜
  • 程序员自己做网站怎么能来钱上海猎头公司哪家好
  • 无忧网站建设哪家好手机网站php开发
  • 如何仿制一个网站wordpress+主题课堂
  • 公明做网站渭南网站开发
  • 网站优化排名多少钱查备案网站备案
  • 北京网站建设市场培训机构参与课后服务
  • wordpress如何添加网站地图上海网站开发设计公司
  • 网站设置反爬虫的主要原因深圳外贸公司上班工资高吗
  • 济南建站价格同仁网站建设公司
  • 石家庄建站软件中国纪检监察报怎么订阅
  • 国内建网站费用厦门房地产网站建设
  • 宝山网站制作网站优化待遇
  • 网站建设项目竞争性招标文件界面设计的重要性
  • 网站建设合同机械设备网络推广方案
  • 阿里巴巴做网站的绿色的医疗资讯手机网站wap模板html源码下载
  • 怎么样自己做企业网站dz采集wordpress
  • 欧 美 做 爱 视频网站阿里巴巴电子商务网站建设目的
  • 动易网站后台修改栏目的字定制型网站设计价格
  • 设计网站页面临夏州建设厅官方网站
  • 给别人做网站需要什么许可证大连做网站开发的公司
  • 哪些网站国内打不开线下推广小组为了推广开放文明环境地图
  • 电子商务网站建设的核心网站收录检测
  • 厦门中小企业建网站补助源码做微信电影网站
  • 利用表单大师做网站网站备案证书放到哪里
  • 辽宁省建设科学研究院网站asp.net做网站 推荐书籍
  • 网站解决访问量超载做国外营销型网站设计