建网站学什么,电子商务网站建设课程设计报告,珠海电子商务网站建设,国内有实力的软件开发公司作者#xff1a;杨晓凡摘要#xff1a;英特尔人工智能产品事业部#xff0c;数据科学主任 Yinyin Liu 近日撰写了一篇文章#xff0c;介绍了深度学习为自然语言处理带来的种种变化。有趣的大趋势是首先产生在 CV 领域的技术也不断用于 NLP#xff0c;而深度学习解决方案的… 作者杨晓凡摘要英特尔人工智能产品事业部数据科学主任 Yinyin Liu 近日撰写了一篇文章介绍了深度学习为自然语言处理带来的种种变化。有趣的大趋势是首先产生在 CV 领域的技术也不断用于 NLP而深度学习解决方案的构建方式也随着时间在进化。自然语言处理NLP是最常见的人工智能的应用方式之一它通过消费者数字助理、聊天机器人以及财务和法律记录的文本分析等商业应用变得无处不在。随着硬件和软件能力的提升以及模块化 NLP 组件的发展Intel 的技术也使得各种各样的 NLP 应用成为可能。深度学习性能的上升趋势近年来许多 NLP 领域的进展都是由深度学习领域的普遍进步驱动的。深度学习拥有了更强大的计算资源可以运用更大的数据集并且在神经网络拓扑结构和训练范式方面有所发展。这些深度学习的进步始于推动计算机视觉应用的改进但是也让自然语言处理领域极大地获益。在深度学习的网络层方面为了使得信号和梯度能够更容易地传递到深度神经网络的每一层残差结构单元residual layer、highway 层全连接的 highway 网络以及稠密连接dense connections结构应运而生。有了这些网络层目前最先进的计算机视觉技术通过利用深度学习网络的表示能力得以实现。同时他们也在许多自然语言处理任务上提高了模型的性能。例如将稠密连接的循环层用于语言模型Improving Language Modeling using Densely Connected Recurrent Neural Networkshttps://arxiv.org/abs/1707.06130 。有实证研究中比较了卷积层、循环层或者一种结合了这两种思想的时序卷积层的表现时序卷积层在一系列的语言数据集上取得了目前最好的效果Convolutional Sequence to Sequence Learninghttps://arxiv.org/abs/1705.03122An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modelinghttps://arxiv.org/abs/1803.01271。有这些不同类型的层可供灵活使用使得开发者能够在处理特定的自然语言处理问题时尝试各种各样的选项。在深度学习的拓扑结构方面一个自编码器auto-encoder模型可以被改进为一个序列到序列seq2seq模型用于处理顺序语言数据。注意力机制attention mechanism解决了随着时间的推移解码网络应该如何对输入的编码做出响应。指针网络Pointer network作为注意力模型的一种变体专门用于在输入序列中寻找词语的位置它为机器阅读理解和文本摘要提供了一种新的处理机制Machine Comprehension Using Match-LSTM and Answer Pointerhttps://arxiv.org/abs/1608.07905Get To The Point: Summarization with Pointer-Generator Networkshttps://arxiv.org/abs/1704.04368。通过增加快速权重fast weightsFast Weights to Attend to the Recent Pasthttps://arxiv.org/abs/1610.06258短期联想记忆的概念可以和长期序列的学习结合到一起。在训练范式方面无监督学习利用训练数据本身和迁移学习技术去构建数据表示迁移学习可以把学到的将表征用于一个又一个的任务都是从计算机视觉领域获得启发推动了自然语言处理技术的进步。由于这些深度学习模型共用了许多底层的组件基于深度学习的自然语言处理解决方案可以与计算机视觉和其它人工智能功能的解决方案共用软件和硬件。对于深度学习的通用软件栈的优化也可以为深度学习自然语言处理解决方案的性能带来改善。英特尔的人工智能硬件和软件组合解决方案为这些在英特尔架构的系统上运行的深度学习进展提供了很好的示例。最近在我们的硬件和对广泛使用的深度学习框架的优化上的工作提供了为在英特尔至强可扩展处理器上运行普遍使用的模型和计算任务优化后的工作性能。英特尔也积极地将他们的这些努力回馈到开放的框架中这样一来每个开发者都能很直接地获得这些经验。为自然语言处理用例构建一个灵活的、模块化的栈由于基于深度学习的自然语言处理模型通常拥有共用的构建模块例如深度学习网络层和深度学习拓扑结构这让我们在构建自然语言处理用例的基础时拥有了一个全新的视角。一些底层的功能在很多种应用中同时被需要。在一个开放的、灵活的栈中获得基本组件对于解决各种各样的自然语言处理问题是十分恰当的。相比之下传统的机器学习或者深度学习的做法都是每一次只考虑某一个特定问题。而如今由于深度学习社区已经提供了许多有用的基础功能模块企业中的用户和数据科学家们就可以考虑其它的方面在学习、构建起基础以后着眼于如何把它们应用于各种不同的问题。这种转换的好处主要有这么几点。首先这些可以复用的组件可以帮助我们逐步构建「结构性资产」。通过重复应用之前已经构建好的东西我们可以做得更快、评价得更快。其次这些构建在英特尔的统一软硬件平台上的功能和解决方案可以持续不断地从英特尔未来的开发和改进中受益。另外用现有的基础设施做实验可以拓展出令人惊喜的新的解决方案或者新的应用这是更早时候的仅关注于问题本身的思考方式所无法带来的。一个灵活的、模块化的栈还能使用户可以将传统的自然语言处理方法和基于深度学习的方法结合起来并为不同的用户群提供不同层次的抽象。许多不同的企业用例表明了自然语言处理和它的基本组件的潜力。下面我们为您提供了几个例子但是显然还有很多别的可能性。主题分析金融业面临着巨大的知识管理挑战这是由每天必须处理和理解的文件的数量太大所造成的。从一页又一页的文本中提取出诸如「某种特定产品的竞争力」这样的关键的见解是十分困难的。自然语言处理主题分析技术现在可以被用来快速分析大量的文档并且识别文档中不同的部分所关联的主题。不同的用户会关注不同的话题例如某个公司的价值、竞争力、领导力或者宏观经济学。自然语言处理主题分析让用户能够筛选出特定的感兴趣的主题并且获得更加浓缩的信息。为了利用大量未标记的数据模型可以用内容类似的文本进行预训练之后这些数据表示可以被迁移至主题分析或者其它附加的任务中。早前的一篇博客介绍了这种解决方案中涉及到的一些方法的概述。为了实现这种方案从自然语言处理构建模块的角度来说我们使用了序列到序列seq2seq的拓扑结构长短期记忆网络LSTM词嵌入来自迁移学习而后进行精细调节fine-tune还可以与命名实体识别等组件结合在一起。趋势分析诸如医疗保健、工业制造、金融业等行业都面临着从大量的文本数据中识别基于时间的趋势的挑战。通过将文本正则化、名词短语分块和抽取、语言模型、语料库的词频-逆文本频率指数TF-IDF算法以及使用词向量的分组等技术我们可以快速的生成一个解决方案它可以从一组文档中抽取关键词和重要性估计。接着随着时间的推移通过比较这些抽取出来的关键词我们能够发现有用的趋势例如天气变化如何能够造成库存的短缺或者哪些领域的学术研究随着时间的推移会吸引更多的贡献和注意。情感分析情感分析功能通常被用于竞争力分析、沟通策略优化、以及产品或市场分析。一个提供了细粒度的情感分析的解决方案能够为企业用户提供可行的见解。例如这种更有针对性的情感分析可以发现关于一个特定商品的评论普遍是对于它的能耗的正面看法以及对它的可靠性的负面看法。对于这种细粒度的情感分析我们使用了诸如词性标注POS tagging、文本正则化、依存分析和词汇扩展等组件。对于不同的领域相同的的那次可能传递不同的情感所以允许领域自适应的机制也是十分关键的。多功能体系架构上灵活的构造模块当我们看到巨大的自然语言处理市场中的种种规划时我们应该如何构建解决方案、软件、硬件来利用这些机会并使它们成为可能在英特尔我们希望构建能够持续创新和改进的技术这能够给我们一个用于研究、实践并应用算法的开放的、灵活的平台这种技术还能够高效地扩展到多种应用程序中最终形成影响深远的商业见解。在英特尔人工智能实验室我们的自然语言处理研究人员和开发者正在构建一个开放的、灵活的自然语言处理组件库以便为我们的合作伙伴和客户实现多种自然语言处理用例。它使我们能够高效地将我们灵活、可靠高性能的英特尔架构为这些自然语言处理应用、其他的人工智能和先进分析工作流提供了硬件、框架工具和软件层。我们将继续努力优化这些组件以提高深度学习的能力。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”