当前位置: 首页 > news >正文

网站怎么让百度收录网站建设力度

网站怎么让百度收录,网站建设力度,建设学院网站,深圳微商城网站制作本文转载自公众号“夕小瑶的卖萌屋”#xff0c;专业带逛互联网算法圈的神操作 -----》我是传送门 关注后#xff0c;回复以下口令#xff1a; 回复【789】 #xff1a;领取深度学习全栈手册#xff08;含NLP、CV海量综述、必刷论文解读#xff09; 回复【入群】#xf… 本文转载自公众号“夕小瑶的卖萌屋”专业带逛互联网算法圈的神操作 -----》我是传送门 关注后回复以下口令 回复【789】 领取深度学习全栈手册含NLP、CV海量综述、必刷论文解读 回复【入群】加入卖萌屋深度学习/NLP/CV/搜广推等方向的技术交流与内推社群大V、顶会审稿人云集 回复【0511】领取算法岗面试手册刷offer神器 回复【0424】领取刷论文神器挖掘每日、每月必刷重磅论文 1. 数据增强的背景和应用场景 随着AI技术的逐步发展更好的神经网络模型对数据规模的要求也逐步提升。而在分类任务中若不同类别数据量相差很大模型则会出现过拟合现象严重影响预测的正确性。 从广义上来讲有监督模型的效果相对半监督或无监督学习都是领先的。但是有监督模型需要获取大量的标注数据当数据需求达到十万、百万甚至更多时人工标注数据昂贵的代价已经让很多人望而却步。 如何利用有限的标注数据获取到更多的训练数据减少网络中的过拟合现象训练出泛化能力更强的模型数据增强无疑是一种强有力的解决方法。 数据增强起初在计算机视觉领域应用较多主要是运用各种技术生成新的训练样本可以通过对图像的平移、旋转、压缩、调整色彩等方式创造新的数据。虽然‘新’的样本在一定程度上改变了外观但是样本的标签保持不变。且NLP中的数据是离散的这导致我们无法对输入数据进行直接简单地转换换掉一个词就有可能改变整个句子的含义。因此本文将重点介绍文本数据增强的方法和技术以快速补充文本数据。 2 传统文本数据增强的技术 现有NLP的Data Augmentation大致有两条思路一个是加噪另一个是回译均为有监督方法。加噪即为在原数据的基础上通过替换词、删除词等方式创造和原数据相类似的新数据。回译则是将原有数据翻译为其他语言再翻译回原语言由于语言逻辑顺序等的不同回译的方法也往往能够得到和原数据差别较大的新数据。 Easy Data Augmentation for Text Classification Tasks EDA提出并验证了几种加噪的 text augmentation 技巧分别是同义词替换SR: Synonyms Replace、随机插入(RI: Randomly Insert)、随机交换(RS: Randomly Swap)、随机删除(RD: Randomly Delete)下面进行简单的介绍 2.1 EDA (1) 同义词替换SR: Synonyms Replace不考虑stopwords在句子中随机抽取n个词然后从同义词词典中随机抽取同义词并进行替换。 Eg: “我非常喜欢这部电影” — “我非常喜欢这个影片”句子仍具有相同的含义很有可能具有相同的标签。 (2) 随机插入(RI: Randomly Insert)不考虑stopwords随机抽取一个词然后在该词的同义词集合中随机选择一个插入原句子中的随机位置。该过程可以重复n次。 Eg : “我非常喜欢这部电影” — “爱我非常喜欢这部影片”。 (3) 随机交换(RS: Randomly Swap)句子中随机选择两个词位置交换。该过程可以重复n次。 Eg: “如何评价 2017 知乎看山杯机器学习比赛?” — “2017 机器学习?如何比赛知乎评价看山杯”。 (4) 随机删除(RD: Randomly Delete)句子中的每个词以概率p随机删除。 Eg: “如何评价 2017 知乎看山杯机器学习比赛? — “如何 2017 看山杯机器学习 ”。 这四种方法的效果如何呢在英文的数据上效果很可观。经过上述四种操作数据增强后的句子可能不易理解但作者们发现模型变得更加鲁棒了尤其是在一些小数据集上。效果如下图 每一种方法也在作者的结果中展示了还不错的效果 上图是针对不同训练集大小的五个文本分类任务的EDA操作的平均性能增益。α参数粗略地表示“每次扩充改变的句子中单词的百分比”纵轴是模型增益。 我们可以看到当α 0.1时模型提升就能达到很好的效果。训练数据越少提升效果效果越明显。过多的数据增强数据实际上对模型的提升有限甚至在RD和SR两种方法上还会严重损害效果。 总的来说传统的文本数据增强的方法在小批量数据中都有较好的表现效果但4种方法的缺点也不能被忽视 同义词替换SR有一个小问题同义词具有非常相似的词向量而训练模型时这两个句子会被当作几乎相同的句子但在实际上并没有对数据集进行有效的扩充。 随机插入RI很直观的可以看到原本的训练数据丧失了语义结构和语义顺序而不考虑停用词的做法使得扩充出来的数据并没有包含太多有价值的信息同义词的加入并没有侧重句子中的关键词在数据扩充的多样性上实际会受限较多。 随机交换RS实质上并没有改变原句的词素对新句式、句型、相似词的泛化能力实质上提升很有限。 随机删除RD不仅有随机插入的关键词没有侧重的缺点也有随机交换句式句型泛化效果差的问题。随机的方法固然能够照顾到每一个词但是没有关键词的侧重若随机删除的词刚好是分类时特征最强的词那么不仅语义信息可能被改变标签的正确性也会存在问题。 2.2 回译 在这个方法中我们用机器翻译把一段中文翻译成另一种语言然后再翻译回中文。 Eg: “周杰伦是一位华语乐坛的实力唱将他的专辑卖遍了全球。 —“Jay Chou is a strength singer in the Chinese music scene, his albums are sold all over the world.”—“周杰伦是中国音乐界的优秀歌手他的专辑畅销全世界。” 这个方法已经成功的被用在Kaggle恶意评论分类竞赛中。反向翻译是NLP在机器翻译中经常使用的一个数据增强的方法其本质就是快速产生一些翻译结果达到增加数据的目的。 回译的方法往往能够增加文本数据的多样性相比替换词来说有时可以改变句法结构等并保留语义信息。但是回译的方法产生的数据依赖于翻译的质量大多数出现的翻译结果可能并不那么准确。如果使用某些翻译软件的接口也可能遇到账号限制等情况。 3 深度学习数据增强技术 3.1 半监督 Mixmatch 半监督学习方法的提出是为了更好地利用未标注的数据减轻对于大规模标注数据集的依赖如今也证明了这是一种强有力的学习范式。 在这篇论文中作者们把当前不同任务中的做法为半监督学习做了统一得到了一种新的算法——MixMatch。它的工作方式是通过 MixUp 猜测数据扩增方法产生的无标签样本的低熵标签并把无标签数据和有标签数据混合起来。 作者们通过实验表明 MixMatch 在多种不同的数据集、多种不同的有标签数据规模中都能以很大幅度领先此前的所有方法。比如在 CIFAR 数据集上、只有 250 个标签的情况下作者们把错误率降低到了之前方法的 1/4在 STL-10 数据集上也降低到了之前方法的一半。 作者们也展示了 MixMatch 可以在差分隐私的使用目的下在准确率和隐私保护之间取得好得多的平衡。最后作者们进行了对照实验分析了 MixMatch 方法中的哪些组件最为关键。 3.2 无监督数据增强UDA 由EDA结果可知传统的数据增广方法有一定的效果但主要针对小数据量对于渴求大量训练数据的深度学习模型传统的方法效果始终有限。而Unsupervised Data AugmentationUDA无监督数据扩增方法的提出为大量数据缺失打开了一扇大门。 MixMatch 算法除了使用普通的数据增广还有一个秘诀是 Mixup 增广术。而 UDA 的成功得益于对特定任务使用特定目标的数据增强算法。 与常规噪声比如高斯噪声、dropout 噪声相比针对不同任务使用不同数据增强方法能够产生更有效的数据。这种方法能够产生有效、真实的噪声且噪音多样化。另外以目标和性能为导向的数据增强策略可以学习如何在原始标记集中找出丢失的或最想要的训练信号比如图像数据以颜色为目标进行数据增强。 下图展示了UDA训练时的目标和结构为了使用标记和未标记的所有数据对有标签的数据训练时加入了cross entropy loss 函数。对未标记数据与Mixmatch使用 l2 loss 不同UDA对增广后未标记的数据预测结果使用KL散度。Targeted data augmentation 特定目标的数据增强则包括了back translation回译、autoaugment(图像)、TFIDF word replacement。其中回译是从英文转法文再译回英文IDF是从DBPedia语料中获取。 作者在文本的处理方式上选用了回译和关键词提取两种方式回译的方式可以帮助丰富数据的句式和句型而tfidf方法优化了EDA的随机处理词策略根据DBPedia先验知识和实际预料的词频确定关键词再根据确定好的关键词替换同义词避免无用数据和错误数据的产生。 另外UDA优秀的另一个重要的突破是采用了Training Signal AnnealingTSA方法在训练时逐步释放训练信号。 当收集了少量的标注的数据和大量未标记的数据时可能会面临标记数据和未标记数据相差很大的情况。比如标记的数据都和保险相关但未标记的数据都是热点新闻。因为需要采用大量的未标记数据进行训练所需的模型会偏大而大模型又会轻松的在有限的有监督数据上过拟合这时TSA就要逐步的释放有监督数据的训练信号了。 作者对每个training step 都设了一个阈值ηt且小于等于1当一个标签例子的正确类别P的概率高于阈值ηt时模型从损失函数中删除这个例子只训练这个minibatch下其他标记的例子。 如上图展示了3种TSA的方式这3种方式适用于不同数据。exp模式更适合于问题相对容易或标注量较少的情况。因为监督信号主要在训练结束时释放且可以防止模型快速过拟合。同理log模式适合大数据量的情况训练过程中不太容易过拟合。 那么UDA效果如何呢作者的实验结果显示这种无监督方法创造的数据在多个任务上都有很好的表现①在 IMDb 数据集的分类测试中UDA 只使用 20 个标签就得到了比此前最好的方法在 25,000 个有标签数据上训练更好的结果②在标准的半监督学习测试CIFAR-104000 个标签以及 SVHN1000 个标签中UDA 击败了此前所有的方法包括MixMatch而且把错误率降低了至少 30%③在大规模数据集上比如在 ImageNet 上只需要额外增加 130 万张无标签图像相比此前的方法UDA 也可以继续提升首位和前五位命中率。 4 数据增强技术实践 利用eda和回译的方法扩增数据我们已经写入相关项目 可以通过pip安装调用 pip install textdafrom textda.data_expansion import *print(data_expansion(生活里的惬意无需等到春暖花开))output: [生活里面的惬意无需等到春暖花开, 生活里的等到春暖花开, 生活里无需惬意的等到春暖花开, 生活里的惬意无需等到春暖花开, 生活里的惬意并不需要等到春暖花开, 生活无需的惬意里等到春暖花开, 生活里的惬意等到无需春暖花开] 4.1 某翻译软件回译 原句生活里的惬意无需等到春暖花开 中—英—中生活的舒适无需等到春天开花 中—日—中生活的舒适无需等到春天的花朵 中—德—中生活的舒适无需等到春天开花 中—法—中生活的舒适无需等待春天的花朵 4.2 EDA 产生的数据 4.3 textda对不平衡文本分类的效果提升 此处以情感正中负文本3分类结果为例 最初训练文本neg1468pos 8214 neu 712 测试文本neg1264, pos 1038, neu 708 分类模型fastText文本分类器训练模型 由下图的confusion matrix 可知模型整体加权 f1值为 0.749 利用textda的方法将数据扩充至 neg:7458 pos:8214 neu:3386 当数据趋于平衡f1值上升到0.783将近4个百分点 由此可见数据增强方法在处理数据不平衡的分类任务上可以提高模型的性能。 5 数据增强的拓展 5.1 其他数据增强方法 数据增强方法还有很多且在文本、语音、图像上的方法都各有不同。 1音频 噪声增强 随机相同类型抽取拼接 时移增强 音高变换增强 速度调整 音量调整 混合背景音 增加白噪声 移动音频 拉伸音频信号 2图像 水平翻转垂直翻转 旋转 缩放 放大缩小 裁剪 平移 高斯噪声 生成对抗网络 GAN AutoAugment 3文本其他数据增强方法 语法树结构替换 篇章截取 seq2seq序列生成数据 生成对抗网络 GAN 预训练的语言模型 无论是文本、语音还是图像数据增强虽然有不同的方法但这些方法本质上是相似的传统直观的方法是对不同信号的裁剪、拼接、交换、旋转、拉伸等方式采用深度学习模型的方法主要为生成和原数据相类似的数据。 5.2 防止过拟合其他方法 在深度学习中为了避免出现过拟合Overfitting通常输入充足的数据量是最好的解决办法。当数据无法达到模型的要求或者添加数据后模型由于某类数据过多导致过拟合时以下方法也可以发挥一些作用 Regularization数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大。通过在Loss Function 后面加上正则项可以抑制过拟合的产生。缺点是引入了一个需要手动调整的hyper-parameter。 Dropout这也是一种正则化手段不过跟以上不同的是它通过随机将部分神经元的输出置零来实现。 Unsupervised Pre-training用Auto-Encoder或者RBM的卷积形式一层一层地做无监督预训练, 最后加上分类层做有监督的Fine-Tuning。 Transfer Learning迁移学习在某些情况下训练集的收集可能非常困难或代价高昂。因此有必要创造出某种高性能学习机learner使得它们能够基于从其他领域易于获得的数据上进行训练并能够在对另一领域的数据进行预测时表现优异。 6 总结和展望 训练机器学习或深度学习模型时良好的数据往往是影响模型的效果最重要的因素之一。而数据不足时数据增强是一个常用的方法。 文本数据增强从对原数据词的变动到句子的变动到段落的变动都有不同的方法为了保证能够真实提高数据的质量有以下几个点尤为重要 1增加的数据要保证和原数据一致的语义信息。 新增后的数据和原数据拥有一样标签的同时更需要保证有一样的语义信息。单独随机去掉某个词的方式很可能会改变整句的含义比如去掉一个否定词。 2增加的数据需要多样化。 从替换词、句式、句型等方面都需要有新的数据以增强模型的泛化能力单独交换词的方式较为局限。 3增加的数据要避免在有标签数据上过拟合。 当大量的数据在少量的有标签数据上过拟合时模型虽然可能会出现很高的f1值但真实的预测效果会相差很多。保证多样化的数据还要保证数据的质量。 4增加的数据和原数据保持一定的平滑性会更有价值提高训练效率。 生成的数据更接近于真实数据可以保证数据的安全性大噪音产生的数据和原始数据的标签很可能不同。尤其在某些序列模型中文本数据的通顺程度严重影响模型的预测。 5增加数据的方法需要带着目标去选择。 对数据缺失的需求明确才能更快的找到理想的数据对某些关键词的同义词需求较多可以偏重替换词的方式对句式缺失较多可以偏重回译或者句式语法结构树变换的方式。 对于小数据的情况使用文本回译或EDA中的简单方法可以达到效果的提升但想要使用大批量的数据训练神经网络模型EDA或者回译的方式产生的文本可能并不能满足需求。 而UDA这种无监督数据增强技术无论对于小数据量或大数据量数据都可以找到带有目标性的方法获得增强后的平滑的数据甚至有时效果高于有监督方法训练的模型。 综上数据增强的方法可以作为我们训练nlp模型时一个快速解决数据不平衡或数据缺失的强有力的工具。 更多精彩内容请各位看官移步微信公众号「夕小瑶的卖萌屋」 会有更加精彩的内容等着大家哦 |∀|*~● 本文转载自公众号“夕小瑶的卖萌屋”专业带逛互联网算法圈的神操作 -----》我是传送门 关注后回复以下口令 回复【789】 领取深度学习全栈手册含NLP、CV海量综述、必刷论文解读 回复【入群】加入卖萌屋深度学习/NLP/CV/搜广推等方向的技术交流与内推社群大V、顶会审稿人云集 回复【0511】领取算法岗面试手册刷offer神器 回复【0424】领取刷论文神器挖掘每日、每月必刷重磅论文
http://www.zqtcl.cn/news/272673/

相关文章:

  • flash网站代做马鞍山网站建设制作公司
  • 温州网站的优化wordpress 注册邮箱验证失败
  • php网站开发实例视频教程宁波seo运营推广平台排名
  • 网络营销网站开发设计公司网站推广营销
  • 2015年做那个网站致富wordpress最新模板
  • 做网站开发平台北京广告公司有哪些
  • 郑州企业建站系统模板兰州需要做网站的公司有哪些
  • 怎样做网站卖东西 自己有货句容网络公司
  • 网站建设协议书 保密条款免费发布推广的网站
  • 网站首页外链上海网站建设联系方式
  • 陕西网站建设优化技术2023年1月热点新闻事件
  • 广东省建设银行招聘网站免费搭建个人网站
  • 知名商城网站建设公司wordpress主题 汉化
  • 网站上线做什么pc网站如何做移动适配
  • wap网站搭建北京北京网站建设
  • 放心的网站设计制作免费做logo设计的网站
  • 温州专业手机网站制作多少钱移动商城 网站建设方法方式
  • 周口网站开发wordpress
  • 如何查网站的备案号玉环在哪里做网站
  • 网站开发什么叫前端后端seo研究中心晴天
  • 邢台建筑类的建设网站代刷网站只做软件下载
  • 关于旅游的网站建设目的食品网站建设的目的
  • 开发php网站开发太湖网站建设推荐秒搜科技
  • 90设计网站怎么绑定手机号淘宝搜索排名
  • 无锡自助做网站哪些编程语言适合网站开发
  • 蒲城网站建设wzjseo北京专业推广公司
  • 阳春做网站外贸建站推广公司
  • 哪个网站的课件做的好源码之家关闭了
  • 各大网站热搜榜排名嵊州网站
  • 在哪找做网站的镇江网页设计工作室