当前位置: 首页 > news >正文

网站群建设 会议 主持小程序api密钥

网站群建设 会议 主持,小程序api密钥,网上的推广公司,北京做网站软件1.从零开始实现LSTM #从零开始实现长短期记忆网络 import torch from torch import nn from d2l import torch as d2l#加载时光机器数据集 batch_size,num_steps 32,35 train_iter,vocab d2l.load_data_time_machine(batch_size,num_steps)#1.定义和初始化模型参数#xff…1.从零开始实现LSTM #从零开始实现长短期记忆网络 import torch from torch import nn from d2l import torch as d2l#加载时光机器数据集 batch_size,num_steps 32,35 train_iter,vocab d2l.load_data_time_machine(batch_size,num_steps)#1.定义和初始化模型参数 #超参数num_hiddens定义隐藏单元的数量。按照标准差0.01的高斯分布初始化权重并将偏置项设为0。 def get_lstm_params(vocab_size,num_hiddens,device):num_inputs num_outputs vocab_sizedef normal(shape):return torch.randn(sizeshape,devicedevice)*0.01def three():return (normal((num_inputs,num_hiddens)),normal((num_hiddens,num_hiddens)),torch.zeros(num_hiddens,devicedevice))W_xi,W_hi,b_i three() #输入门参数W_xf,W_hf,b_f three() #遗忘门参数W_xo,W_ho,b_o three() #输出门参数W_xc,W_hc,b_c three() #候选记忆元参数#输出层参数W_hq normal((num_hiddens,num_outputs))b_q torch.zeros(num_outputs,devicedevice)#附加梯度params [W_xi,W_hi,b_i,W_xf,W_hf,b_f,W_xo,W_ho,b_o,W_xc,W_hc,b_c,W_hq,b_q]for param in params:param.requires_grad_(True)return params #2.定义模型 #在初始化函数中长短期记忆网络的隐状态需要返回一个额外的记忆元单元的值为0形状为批量大小隐藏单元数 def init_lstm_state(batch_size,num_hiddens,device):return (torch.zeros((batch_size,num_hiddens),devicedevice),torch.zeros((batch_size,num_hiddens),devicedevice)) #实际模型的定义与前面讨论的一样提供三个门和一个额外的记忆元。 #只有隐状态才会传递到输出层而记忆元mathbf{C}_t不直接参与输出计算。 def lstm(inputs,state,params):[W_xi,W_hi,b_i,W_xf,W_hf,b_f,W_xo,W_ho,b_o,W_xc,W_hc,b_c,W_hq,b_q] params(H,C) stateoutputs []for X in inputs:I torch.sigmoid((X W_xi) (H W_hi) b_i)F torch.sigmoid((X W_xf) (H W_hf) b_f)O torch.sigmoid((X W_xo) (H W_ho) b_o)C_tilda torch.tanh((X W_xc) (H W_hc) b_c)C F * C I * C_tildaH O * torch.tanh(C)Y (H W_hq) b_qoutputs.append(Y)return torch.cat(outputs,dim0),(H,C) #3.训练和预测 vocab_size,num_hiddens,device len(vocab),256,d2l.try_gpu() num_epochs,lr 500,1 model d2l.RNNModelScratch(len(vocab),num_hiddens,device,get_lstm_params,init_lstm_state,lstm) print(d2l.train_ch8(model,train_iter,vocab,lr,num_epochs,device)) d2l.plt.show() 2.简洁实现LSTM #简洁实现长短期记忆网络 import torch from torch import nn from d2l import torch as d2l#加载时光机器数据集 batch_size,num_steps 32,35 train_iter,vocab d2l.load_data_time_machine(batch_size,num_steps)vocab_size,num_hiddens,device len(vocab),256,d2l.try_gpu() num_epochs,lr 500,1num_inputs vocab_size lstm_layer nn.LSTM(num_inputs,num_hiddens) model d2l.RNNModel(lstm_layer,len(vocab)) model model.to(device) print(d2l.train_ch8(model,train_iter,vocab,lr,num_epochs,device)) d2l.plt.show()
http://www.zqtcl.cn/news/597397/

相关文章:

  • 河南民基建设工程有限公司网站齐齐哈尔建设局网站首页
  • 响应式网站建设推荐乐云践新三丰云免费云服务器
  • 长沙网站建设模板uc浏览器访问网站
  • 擼擼擼做最好的导航网站陕西政务服务网注册公司流程
  • 怎样做商城网站的推广wordpress用php哪个版本好
  • 网站功能模块建设建设网站考证
  • 网站代码结构成都住建局官网报名入口
  • 吴桥县网站建设房产门户网站模板
  • 标签化网站网络服务类型及其所采用的网络协议
  • 做网站服务器应该怎么配置网页美工设计实践性教案
  • 响应式网站导航栏内容泰安网站营销推广
  • 南通营销网站开发软件开发工具名词解释
  • 吉林企业网站模板建站哪个好wordpress后台新建慢
  • 整合营销的成功案例肇庆seo优化
  • 网站关键字标签合肥高端网站建设设计公司哪家好
  • 大型企业网站设计案例免费在线看片
  • 云南网站开发公司找哪家网站弹出式链接后台怎么做
  • 电商网站的支付模块怎么做企业网站建设招标文件
  • 旅游在线网站开发十八个免费的舆情网站
  • 网站怎么申请百度小程序火车头采集发布wordpress
  • 外贸网站的推广技巧有哪些莱芜网吧
  • 溧阳城乡建设局网站ps中网站页面做多大的
  • sns社交网站 有哪些wordpress开发分类筛选
  • 黄石网站建设教程网上怎样查询企业资质
  • 国内设计师交流网站怎样做自己的网站钻钱
  • 无锡专业网站推广网络营销组合策略
  • 网站建设的安全威胁中国建设银行的网站色彩
  • 中小型企业网站建设与管理潍坊做网站哪家公司最好
  • 广州白云机场网站建设免费的网站模版
  • 商务网站建设策划书51网站怎么打开