当前位置: 首页 > news >正文

和君设计专业网站建设公司电子商务平台经营者

和君设计专业网站建设公司,电子商务平台经营者,成都注册网站公司,网站建设 应该考虑什么github地址#xff1a;https://github.com/huggingface/transformers Transformers 提供了数以千计的预训练模型#xff0c;支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让NLP 技术人易用。 Transformers 提供了便于快速下载和使用的API… github地址https://github.com/huggingface/transformers Transformers 提供了数以千计的预训练模型支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让NLP 技术人易用。 Transformers 提供了便于快速下载和使用的API可以把预训练模型用在给定文本、在自己的数据集上微调然后通过 model hub 与社区共享。同时每个定义的 Python 模块都是完全独立的便于修改和快速进行研究实验。 Transformers 支持三个最热门的深度学习库 Jax, PyTorch 以及 TensorFlow 并与之无缝整合。可以直接使用一个框架训练模型然后用另一个加载和推理。 目录 在线演示 快速上手 为什么要用 transformers 什么情况下我不该用 transformers 安装 模型架构 更多 在线演示 可以直接在模型页面上测试大多数 model hub 上的模型。 提供了 私有模型托管、模型版本管理以及推理API。 这里是一些例子 用 BERT 做掩码填词 用 Electra 做命名实体识别 用 GPT-2 做文本生成 用 RoBERTa 做自然语言推理 用 BART 做文本摘要 用 DistilBERT 做问答 用 T5 做翻译 Write With Transformer由Hugging Face团队打造是一个文本生成的官方 demo。 快速上手 为快速使用模型提供了 pipeline 流水线API。流水线聚合了预训练模型和对应的文本预处理。下面是一个快速使用流水线去判断正负面情绪的例子 from transformers import pipeline# 使用情绪分析流水线classifier pipeline(sentiment-analysis)classifier(We are very happy to introduce pipeline to the transformers repository.) [{label: POSITIVE, score: 0.9996980428695679}] 第二行代码下载并缓存了流水线使用的预训练模型而第三行代码则在给定的文本上进行了评估。这里的答案“正面” (positive) 具有 99 的置信度。 许多的 NLP 任务都有开箱即用的预训练流水线。比如说可以轻松的从给定文本中抽取问题答案 from transformers import pipeline# 使用问答流水线question_answerer pipeline(question-answering)question_answerer({ ... question: What is the name of the repository ?, ... context: Pipeline has been included in the huggingface/transformers repository ... }) {score: 0.30970096588134766, start: 34, end: 58, answer: huggingface/transformers}除了给出答案预训练模型还给出了对应的置信度分数、答案在词符化 (tokenized) 后的文本中开始和结束的位置。可以从这个教程了解更多流水线API支持的任务。 要在自己的任务上下载和使用任意预训练模型也很简单只需三行代码。这里是 PyTorch 版的示例 from transformers import AutoTokenizer, AutoModel tokenizer AutoTokenizer.from_pretrained(google-bert/bert-base-uncased)model AutoModel.from_pretrained(google-bert/bert-base-uncased) inputs tokenizer(Hello world!, return_tensorspt)outputs model(**inputs) 这里是等效的 TensorFlow 代码 from transformers import AutoTokenizer, TFAutoModel tokenizer AutoTokenizer.from_pretrained(google-bert/bert-base-uncased)model TFAutoModel.from_pretrained(google-bert/bert-base-uncased) inputs tokenizer(Hello world!, return_tensorstf)outputs model(**inputs) 词符化器 (tokenizer) 为所有的预训练模型提供了预处理并可以直接对单个字符串进行调用比如上面的例子或对列表 (list) 调用。它会输出一个可以在下游代码里使用或直接通过 ** 解包表达式传给模型的词典 (dict)。 模型本身是一个常规的 Pytorch nn.Module 或 TensorFlow tf.keras.Model可以常规方式使用。 这个教程解释了如何将这样的模型整合到经典的 PyTorch 或 TensorFlow 训练循环中或是如何使用 Trainer 训练器API 来在一个新的数据集上快速微调。 为什么要用 transformers 1便于使用的先进模型 NLU 和 NLG 上表现优越 对教学和实践友好且低门槛 高级抽象只需了解三个类 对所有模型统一的API 2 更低计算开销 研究人员可以分享已训练的模型而非每次从头开始训练 工程师可以减少计算用时和生产环境开销 数十种模型架构、两千多个预训练模型、100多种语言支持 3 对于模型生命周期的每一个部分都面面俱到 训练先进的模型只需 3 行代码 模型在不同深度学习框架间任意转移随你心意 为训练、评估和生产选择最适合的框架衔接无缝 4 为你的需求轻松定制专属模型和用例 为每种模型架构提供了多个用例来复现原论文结果 模型内部结构保持透明一致 模型文件可单独使用方便魔改和快速实验 什么情况下我不该用 transformers 本库并不是模块化的神经网络工具箱。模型文件中的代码特意呈若璞玉未经额外抽象封装以便研究人员快速迭代魔改而不致溺于抽象和文件跳转之中。 Trainer API 并非兼容任何模型只为本库之模型优化。若是在寻找适用于通用机器学习的训练循环实现请另觅他库。 尽管已尽力而为examples 目录中的脚本也仅为用例而已。对于特定问题它们并不一定开箱即用可能需要改几行代码以适之。 安装 使用 pip 这个仓库已在 Python 3.9、Flax 0.4.1、PyTorch 2.0 和 TensorFlow 2.6 下经过测试。 可以在虚拟环境中安装Transformers 如果还不熟悉 Python 的虚拟环境请阅此用户说明。 首先用打算使用的版本的 Python 创建一个虚拟环境并激活。 然后需要安装 Flax、PyTorch 或 TensorFlow 其中之一。关于在使用的平台上安装这些框架请参阅 TensorFlow 安装页, PyTorch 安装页 或 Flax 安装页。 当这些后端之一安装成功后 Transformers 可依此安装 pip install transformers 如果想要试试用例或者想在正式发布前使用最新的开发中代码从源代码安装。 使用 conda conda install conda-forge::transformers 笔记: 从 huggingface 渠道安装 transformers 已被废弃。 要通过 conda 安装 Flax、PyTorch 或 TensorFlow 其中之一请参阅它们各自安装页的说明。 模型架构 所有的模型检查点由用户和组织上传均与 huggingface.co model hub 无缝整合。目前的数量  Transformers 目前支持如下的架构: 模型概述请阅这里. 要检查某个模型是否已有 Flax、PyTorch 或 TensorFlow 的实现或其是否在Tokenizers 库中有对应词符化器tokenizer参阅此表。 这些实现均已于多个数据集测试请参看用例脚本并应于原版实现表现相当。可以在用例文档的此节中了解表现的细节。 更多 章节描述文档完整的 API 文档和教程任务总结 Transformers 支持的任务预处理教程使用 Tokenizer 来为模型准备数据训练和微调在 PyTorch/TensorFlow 的训练循环或 Trainer API 中使用 Transformers 提供的模型快速上手微调和用例脚本为各种任务提供的用例脚本模型分享和上传和社区上传和分享你微调的模型迁移从 pytorch-transformers 或 pytorch-pretrained-bert 迁移到 Transformers 论文论文 至此本文的内容就结束啦。
http://www.zqtcl.cn/news/459658/

相关文章:

  • 汕头制作网站推荐文化建设五大工程
  • 公司购物网站备案遵义市乡村街道建设投诉网站
  • ps做景观有哪些素材网站网站推广软文
  • 医疗类网站备案dw网页设计期末作业源代码
  • 网站建设开发合同别具光芒 Flash互动网站设计
  • app导航网站建设多少钱网页游戏破解版
  • 布吉做棋牌网站建设哪家服务好青海做高端网站建设的公司
  • 邙山郑州网站建设好看手机网站推荐
  • 北京建设网官方网站外贸wordpress收款插件
  • 网站关键词进前三响应式手机网站模版
  • 网站采集来源制作好网站
  • 哪个网站有工笔教程免费物流公司网站模板
  • 网站怎么做才有收录西安建设工程信息网人员查询
  • 用dedecms做的网站电子商务公司名称大全简单大气
  • 网站建设的业务员wordpress font awesome
  • 艺术公司网站定制中心怎么搜索网站搜索量
  • 陕西网站建设设计公司西部数码网站管理助手破解版
  • 网站建设框架构建正规的app网站开发
  • 离退休工作网站建设方案wordpress在线浏览pdf
  • 昆明免费网站制作wordpress自定义路由
  • html5视频网站开发江西响应式网站制作
  • 网站照片加水印家装公司十大口碑排名
  • 做网站还有用PHP网站开发如何建立vip
  • 东莞广告公司东莞网站建设辽宁城乡建设部网站
  • 公司网站开发详细流程php网站开发优点
  • 广东网站建设多少钱比较大气的网站
  • asp.net怎么做登录网站网站建设服务网络服务
  • 网站备案级别做公司网站要多少钱
  • 湛江网站seo网站定制排名
  • 为什么网站之有首页被收录企业网站发布图片文章