当前位置: 首页 > news >正文

昆明seo网站管理免费建站有哪些网站

昆明seo网站管理,免费建站有哪些网站,wordpress文章自动标签,链家网的网站开发费用大概多少钱循环神经网络实战#xff1a;GRU 对比 LSTM 的中文情感分析#xff08;三#xff09; 文章目录循环神经网络实战#xff1a;GRU 对比 LSTM 的中文情感分析#xff08;三#xff09;前言数据准备#xff08;与 LSTM 相同#xff09;模型搭建#xff08;GRU#xff09;…循环神经网络实战GRU 对比 LSTM 的中文情感分析三 文章目录循环神经网络实战GRU 对比 LSTM 的中文情感分析三前言数据准备与 LSTM 相同模型搭建GRU训练与测试可视化 Loss 曲线测试与预测GRU vs LSTM 对比总结前言 在前两篇文章中我们已经学习了 RNN/LSTM/GRU 的理论基础并完成了一个基于 LSTM 的中文情感分析实战项目。 那么问题来了GRU 和 LSTM 到底哪个更好 本篇我们将使用同样的任务中文情感分析用 GRU 模型替换 LSTM并进行训练和测试最后对比两者的 速度和效果。 数据准备与 LSTM 相同 这里我们依然使用示例的 中文评论数据完整项目请使用 ChnSentiCorp 数据集。 import jieba from torchtext.vocab import build_vocab_from_iterator from torch.nn.utils.rnn import pad_sequence import torchtexts [这部电影真的很好看, 剧情太差劲了浪费时间, 演员表演很自然值得推荐] labels [1, 0, 1]tokenized_texts [list(jieba.cut(t)) for t in texts]def yield_tokens(data):for tokens in data:yield tokensvocab build_vocab_from_iterator(yield_tokens(tokenized_texts), specials[pad]) vocab.set_default_index(vocab[pad])text_ids [torch.tensor(vocab(t)) for t in tokenized_texts] padded pad_sequence(text_ids, batch_firstTrue, padding_valuevocab[pad])模型搭建GRU 在 LSTM 中我们有输入门、遗忘门和输出门而 GRU 更加简洁只保留了 更新门update gate和重置门reset gate没有单独的细胞状态。 因此GRU 参数更少训练更快。 PyTorch 代码如下 import torch.nn as nnclass SentimentGRU(nn.Module):def __init__(self, vocab_size, embed_dim, hidden_dim, num_layers, num_classes1):super(SentimentGRU, self).__init__()self.embedding nn.Embedding(vocab_size, embed_dim, padding_idx0)self.gru nn.GRU(embed_dim, hidden_dim, num_layers, batch_firstTrue)self.fc nn.Linear(hidden_dim, num_classes)self.sigmoid nn.Sigmoid()def forward(self, x):embedded self.embedding(x)out, _ self.gru(embedded)out self.fc(out[:, -1, :]) # 取最后时刻的隐藏状态return self.sigmoid(out)训练与测试 定义损失函数和优化器 import torch.optim as optimmodel SentimentGRU(vocab_sizelen(vocab), embed_dim128, hidden_dim256, num_layers2) criterion nn.BCELoss() optimizer optim.Adam(model.parameters(), lr0.001)labels_tensor torch.tensor(labels, dtypetorch.float) losses []训练循环记录 loss for epoch in range(10):optimizer.zero_grad()outputs model(padded).squeeze()loss criterion(outputs, labels_tensor)loss.backward()optimizer.step()losses.append(loss.item())print(fEpoch {epoch1}, Loss: {loss.item():.4f})可视化 Loss 曲线 import matplotlib.pyplot as pltplt.plot(losses, labelTraining Loss (GRU)) plt.xlabel(Epoch) plt.ylabel(Loss) plt.legend() plt.show()测试与预测 和 LSTM 一样直接输入新评论 def predict(text):tokens list(jieba.cut(text))ids torch.tensor(vocab(tokens)).unsqueeze(0)output model(ids)return 积极 if output.item() 0.5 else 消极print(predict(故事很精彩)) print(predict(导演水平太差))GRU vs LSTM 对比 我们来对比两个模型 模型参数量训练速度效果准确率适用场景LSTM较多较慢稳定适合长期依赖NLP 长文本、机器翻译GRU较少较快接近甚至优于 LSTM短文本分类、时间序列预测 实验结论 在小数据集短文本下GRU 的表现通常和 LSTM 不相上下但训练更快。在大规模数据集上LSTM 更稳定尤其在长依赖问题上优势明显。如果你追求 效率 → GRU 更好 如果你追求 精度和长期记忆能力 → LSTM 更稳妥。 总结 本文在 中文情感分析任务 中使用了 GRU 模型并与 LSTM 进行了对比。 实验表明GRU 训练速度更快效果接近 LSTM在短文本任务中性价比更高。 实际应用中可以根据 任务规模与需求 来选择 小数据集/短文本 → GRU长文本/复杂依赖 → LSTM追求最强性能 → Transformer (BERT, GPT 等)
http://www.zqtcl.cn/news/743085/

相关文章:

  • 专业提供网站建设服务包括做解析视频网站违法莫
  • 天津工程建设协会网站wordpress 自由评论
  • 南同网站建设hr系统管理软件排名
  • 水果网店网站建设策划书做企业形象网站
  • 小清新博客网站软件公司有哪些部门
  • 企业网站托管一年多少钱想学电商运营在哪里学
  • 网站建设自评报告手机电商平台怎么做的
  • 安阳网站建设优化免费的免抠图素材网站
  • 网站主机有什么用seo网站课程
  • 网站关键词优化软件网站的二次开发
  • 网站建设技术服务费怎么入账杭州网站推广与优化
  • 咨询类网站建设方案书重庆360网络推广
  • 简单网站模板下载wordpress调用数据库字段
  • 万网空间最多放几个网站好的网站首页的特点
  • .net做网站安全吗wordpress取消邮件验证
  • 沈阳做网站推广唐山网站怎么做seo
  • 网站备案说主体已注销刷关键词指数
  • 学做网站教学百度网盘动软代码生成器 做网站
  • 长辛店网站建设手机评测网站
  • 网站建设公司选哪个好软件开发
  • 隐形眼镜网站开发的经济效益莘县网站开发
  • 开创集团网站建设如何在学校网站上做链接
  • 上海优秀网站设计百度投诉中心人工电话号码
  • 卖建材的网站有哪些跨境电商工具类产品的网站
  • 做毕业网站的周记网站开发项目书
  • 门户网站价格仿站工具下载后咋做网站
  • 国外优秀ui设计网站常州网站建设电话
  • 大连手机网站建设做外贸无网站如何做
  • 做旅游门票网站需要什么材料人工智能培训机构哪个好
  • 免费的网站程序个人网站可以做论坛么