当前位置: 首页 > news >正文

做h5哪个网站好可以自己做网站

做h5哪个网站好,可以自己做网站,优秀企业站网站,企业获客方式一、 RNN 1 序列模型 序列数据#xff1a; 预测明天的股价要比过去的股价更困难#xff0c;尽管两者都只是估计一个数字。 毕竟#xff0c;先见之明比事后诸葛亮难得多。 在统计学中#xff0c;前者#xff08;对超出已知观测范围进行预测#xff09;称为外推法#…一、 RNN 1 序列模型 序列数据 预测明天的股价要比过去的股价更困难尽管两者都只是估计一个数字。 毕竟先见之明比事后诸葛亮难得多。 在统计学中前者对超出已知观测范围进行预测称为外推法extrapolation 而后者在现有观测值之间进行估计称为内插法interpolation 序列模型 自回归模型 马尔可夫模型 因果模型 2 语言模型 序列数据形式多样如视频帧、音频数据等其中文本是最常见的。 文本预处理 1 将文本作为字符串加载到内存中。2 将字符串拆分为词元如单词和字符。3 建立一个词表将拆分的词元映射到数字索引。4 将文本转换为数字索引序列方便模型操作。 假设长度为T的文本序列中的词元依次为 x 1 , x 2 , … , x T x_1, x_2, \ldots, x_T x1​,x2​,…,xT​。 于是 x t , 1 ≤ t ≤ T x_t, 1 \leq t \leq T xt​,1≤t≤T 可以被认为是文本序列在时间步t处的观测或标签。 在给定这样的文本序列时语言模型language model 的目标是估计序列的联合概率 P ( x 1 , x 2 , … , x T ) . P(x_1, x_2, \ldots, x_T). P(x1​,x2​,…,xT​). 马尔可夫模型与 n n n元语法 二、LSTM 受计算机的逻辑门启发引入记忆单元memory cell并通过各种门来控制记忆单元。 1 遗忘门、输入门、输出门 首先通过输入 X t X_t Xt​ 和 上一个隐状态 H t − 1 H_{t-1} Ht−1​ 与全连接层相乘 再加上偏置最后经过激活函数sigmoid, 得到三个门遗忘门 f f f, 输入门 i i i, 输出门 o o o I t σ ( X t W x i H t − 1 W h i b i ) , F t σ ( X t W x f H t − 1 W h f b f ) , O t σ ( X t W x o H t − 1 W h o b o ) , \begin{split}\begin{aligned} \mathbf{I}_t \sigma(\mathbf{X}_t \mathbf{W}_{xi} \mathbf{H}_{t-1} \mathbf{W}_{hi} \mathbf{b}_i),\\ \mathbf{F}_t \sigma(\mathbf{X}_t \mathbf{W}_{xf} \mathbf{H}_{t-1} \mathbf{W}_{hf} \mathbf{b}_f),\\ \mathbf{O}_t \sigma(\mathbf{X}_t \mathbf{W}_{xo} \mathbf{H}_{t-1} \mathbf{W}_{ho} \mathbf{b}_o), \end{aligned}\end{split} It​Ft​Ot​​σ(Xt​Wxi​Ht−1​Whi​bi​),σ(Xt​Wxf​Ht−1​Whf​bf​),σ(Xt​Wxo​Ht−1​Who​bo​),​​ 2 候选记忆元 接着通过输入 X t X_t Xt​ 和 隐状态 H t − 1 H_{t-1} Ht−1​ 与全连接层相乘 再加上偏置最后经过激活函数tanh, 得到候选记忆单元 C ~ t tanh ( X t W x c H t − 1 W h c b c ) , \tilde{\mathbf{C}}_t \text{tanh}(\mathbf{X}_t \mathbf{W}_{xc} \mathbf{H}_{t-1} \mathbf{W}_{hc} \mathbf{b}_c), C~t​tanh(Xt​Wxc​Ht−1​Whc​bc​), 3 记忆元 然后计算遗忘门 f f f、输入门 i i i 分别与上一个隐状态 H t − 1 H_{t-1} Ht−1​和候选记忆元 C ~ t \tilde{\mathbf{C}}_t C~t​ 按元素相乘再相加 C t F t ⊙ C t − 1 I t ⊙ C ~ t . \mathbf{C}_t \mathbf{F}_t \odot \mathbf{C}_{t-1} \mathbf{I}_t \odot \tilde{\mathbf{C}}_t. Ct​Ft​⊙Ct−1​It​⊙C~t​. 如果遗忘门始终为1且输入门始终为0 则过去的记忆元 C t − 1 \mathbf{C}_{t-1} Ct−1​,将随时间被保存并传递到当前时间步。 引入这种设计是为了缓解梯度消失问题 并更好地捕获序列中的长距离依赖关系。 4 隐状态 最后计算隐状态 H t O t ⊙ tanh ⁡ ( C t ) . \mathbf{H}_t \mathbf{O}_t \odot \tanh(\mathbf{C}_t). Ht​Ot​⊙tanh(Ct​). 只要输出门接近1我们就能够有效地将所有记忆信息传递给预测部分 而对于输出门接近0我们只保留记忆元内的所有信息而不需要更新隐状态 三、GRU 门控循环单元与普通的循环神经网络之间的关键区别在于 前者支持隐状态的门控。 这意味着模型有专门的机制来确定应该何时更新隐状态 以及应该何时重置隐状态。 这些机制是可学习的并且能够解决了上面列出的问题。 例如如果第一个词元非常重要 模型将学会在第一次观测之后不更新隐状态。 同样模型也可以学会跳过不相关的临时观测。 最后模型还将学会在需要的时候重置隐状态 1 重置门、更新门 首先通过输入 X t X_t Xt​ 和 上一个隐状态 H t − 1 H_{t-1} Ht−1​ 与全连接层相乘 再加上偏置最后经过激活函数sigmoid, 得到重置门 R t \mathbf{R}_t Rt​, 更新门 Z t \mathbf{Z}_t Zt​ R t σ ( X t W x r H t − 1 W h r b r ) , Z t σ ( X t W x z H t − 1 W h z b z ) , \begin{split}\begin{aligned} \mathbf{R}_t \sigma(\mathbf{X}_t \mathbf{W}_{xr} \mathbf{H}_{t-1} \mathbf{W}_{hr} \mathbf{b}_r),\\ \mathbf{Z}_t \sigma(\mathbf{X}_t \mathbf{W}_{xz} \mathbf{H}_{t-1} \mathbf{W}_{hz} \mathbf{b}_z), \end{aligned}\end{split} Rt​σ(Xt​Wxr​Ht−1​Whr​br​),Zt​σ(Xt​Wxz​Ht−1​Whz​bz​),​​ 2 候选隐状态 然后, 输入 X t X_t Xt​ 乘以全连接层 加上 R t \mathbf{R}_t Rt​和 H t − 1 \mathbf{H}_{t-1} Ht−1​的元素相乘后的结果 乘以全连接层 H ~ t tanh ⁡ ( X t W x h ( R t ⊙ H t − 1 ) W h h b h ) , \tilde{\mathbf{H}}_t \tanh(\mathbf{X}_t \mathbf{W}_{xh} \left(\mathbf{R}_t \odot \mathbf{H}_{t-1}\right) \mathbf{W}_{hh} \mathbf{b}_h), H~t​tanh(Xt​Wxh​(Rt​⊙Ht−1​)Whh​bh​), R t \mathbf{R}_t Rt​和 H t − 1 \mathbf{H}_{t-1} Ht−1​的元素相乘可以减少以往状态的影响。 每当重置门 R t \mathbf{R}_t Rt​中的项接近1时 我们恢复一个普通的循环神经网络。 对于重置门 R t \mathbf{R}_t Rt​中所有接近0的项 候选隐状态是以作为输入的多层感知机的结果。 因此任何预先存在的隐状态都会被重置为默认值 3 隐状态 最后使用更新门 Z t \mathbf{Z}_t Zt​在 H t − 1 \mathbf{H}_{t-1} Ht−1​和 H ~ t \tilde{\mathbf{H}}_t H~t​之间进行按元素的凸组合 H t Z t ⊙ H t − 1 ( 1 − Z t ) ⊙ H ~ t . \mathbf{H}_t \mathbf{Z}_t \odot \mathbf{H}_{t-1} (1 - \mathbf{Z}_t) \odot \tilde{\mathbf{H}}_t. Ht​Zt​⊙Ht−1​(1−Zt​)⊙H~t​. 每当更新门 Z t \mathbf{Z}_t Zt​接近1时模型就倾向只保留旧状态。 此时来自 X t X_t Xt​的信息基本上被忽略 从而有效地跳过了依赖链条中的时间步 t t t。 相反当 Z t \mathbf{Z}_t Zt​接近0时 新的隐状态 H t \mathbf{H}_t Ht​ 就会接近候选隐状态 H ~ t \tilde{\mathbf{H}}_t H~t​。 这些设计可以帮助我们处理循环神经网络中的梯度消失问题 并更好地捕获时间步距离很长的序列的依赖关系。 例如如果整个子序列的所有时间步的更新门都接近于1 则无论序列的长度如何在序列起始时间步的旧隐状态都将很容易保留并传递到序列结束。 pytorch LSTM实现 LSTMCell Inputs: input, (h_0, c_0) input of shape (batch, input_size) or (input_size): tensor containing input features h_0 of shape (batch, hidden_size) or (hidden_size): tensor containing the initial hidden state c_0 of shape (batch, hidden_size) or (hidden_size): tensor containing the initial cell state If (h_0, c_0) is not provided, both h_0 and c_0 default to zero. Outputs: (h_1, c_1) h_1 of shape (batch, hidden_size) or (hidden_size): tensor containing the next hidden state c_1 of shape (batch, hidden_size) or (hidden_size): tensor containing the next cell state rnn nn.LSTMCell(10, 20) # (input_size, hidden_size) input torch.randn(2, 3, 10) # (time_steps, batch, input_size) hx torch.randn(3, 20) # (batch, hidden_size) cx torch.randn(3, 20) output [] for i in range(input.size()[0]):hx, cx rnn(input[i], (hx, cx))output.append(hx) output torch.stack(output, dim0)
http://www.zqtcl.cn/news/263036/

相关文章:

  • 百度网站置顶怎么做效果图制作设计
  • 自适应企业网站用什么框架做重庆在线观看
  • 网站做301重定向的作用辽宁网站建设电话
  • 抚州市建设局官方网站高端网页设计人才
  • 移动商城网站建设 深圳北京网站建站公
  • 网站的对比免费网站建设排名
  • 织梦做的网站别人提交给我留的言我去哪里看怎样发展网站
  • 滨州公司网站建设推广地下城做解封任务的网站
  • 做国外的众筹网站北京的网站建设公司哪家好
  • 网站建设费用一年多少钱商洛城乡建设局网站
  • 网站视觉设计原则四个商城建设
  • WordPress站点添加ssl证书网站在百度无法验证码怎么办
  • 做ppt图片用的网站有哪些问题搭建网站合同
  • 杭州网站建设推荐q479185700上墙网站推广费用入什么科目
  • 天津网站建设 熊掌号设计网站大全
  • 网站建设不力 被问责上海传媒公司有哪些
  • 在线购物网站的设计阿里巴巴网站建设
  • 宿迁网站制作公司河北省建设工程协会网站
  • 美丽寮步网站建设做招聘的网站有哪些内容
  • 服装商店的网站建设要求企业所得税率
  • 南联网站建设公司注册企业查询
  • 商业网站的网址买网站服务器吗
  • 专业的单位网站开发网站开发和网页开发有什么区别
  • 电子商务网站建设 概念免费网页设计制作网站
  • 柳州做网站设计的公司游戏界面设计图片
  • 网站建设属于无形资产吗网站开发工程师 下载
  • 湖北城乡建设部网站首页推广电子商务网站的案例
  • 做地方网站如何盈利电脑上怎样进入中国建设银行网站
  • 网站建设初期问题常见wordpress 3.8页面伪静态化 html
  • wordpress字不能显示嘉兴优化网站公司