当前位置: 首页 > news >正文

瀑布流网站搜索引擎优化论文

瀑布流网站,搜索引擎优化论文,网站兼容性代码,选择邯郸网站制作一、说明 本文和接下来的几篇文章将介绍 Python NLTK 库。NLTK — 自然语言工具包 — NLTK 是一个强大的开源库#xff0c;用于 NLP 的研究和开发。它内置了 50 多个文本语料库和词汇资源。它支持文本标记化、词性标记、词干提取、词形还原、命名实体提取、分割、分类、语义推… 一、说明         本文和接下来的几篇文章将介绍 Python NLTK 库。NLTK — 自然语言工具包 — NLTK 是一个强大的开源库用于 NLP 的研究和开发。它内置了 50 多个文本语料库和词汇资源。它支持文本标记化、词性标记、词干提取、词形还原、命名实体提取、分割、分类、语义推理。         Python 有一些非常强大的 NLP 库。SpaCY — SpaCy 也是一个开源 Python 库用于构建现实世界项目的生产级别。它内置了对 BERT 等多重训练 Transformer 的支持以及针对超过 17 种语言的预训练 NLP 管道。它速度非常快并提供以下功能 - 超过 49 种语言的标记化、词性标记、分段、词形还原、命名实体识别、文本分类。         TextBlob — TextBlob 是一个构建在 NLTK 之上的开源库。它提供了一个简单的界面并支持诸如情感分析、短语提取、解析、词性标记、N-gram、拼写纠正、标记分类、名词短语提取等任务。         Gensim — GenSim 支持分层狄利克雷过程 (HDP)、随机投影、潜在狄利克雷分配 (LDA)、潜在语义分析或 word2vec 深度学习等算法。它非常快并且优化了内存使用。         PolyGlot — PolyGlot 支持多种语言并基于 SpaCy 和 NumPy 库构建。它支持165种语言的标记化、196种语言的语言检测、命名实体识别、POS标记、情感分析、137种语言的词嵌入、形态分析、69种语言的音译。         sklearn — Python 中的标准机器学习库 自然语言工具包NLTK         NLTK 是一个免费的开源 Python 库用于在 Windows、Mac OS X 和 Linux 中构建 NLP 程序。它拥有 50 个内置语料库、WordNet 等词汇资源以及许多用于 NLP 任务如分类、分词、词干、标记、解析、语义推理的库。         NLTK 提供了编程基础知识、计算语言学概念和优秀文档的实践指南这使得 NLTK 非常适合语言学家、工程师、学生、教育工作者、研究人员和行业用户等使用。NLTK 有一本姊妹书——由 NLTK 的创建者编写的《Python 自然语言处理》。 二、下载并安装NLTK # using pip: pip install nltk # using conda: conda install nltk 三、数据集的下载         数据集下载的地址是NLTK Data         NLTK附带了许多语料库、玩具语法、训练模型等。安装NLTK后我们应该使用NLTK的数据下载器安装数据 import nltk nltk.download()         应打开一个新窗口显示 NLTK 下载程序。您可以选择要下载的语料库。您也可以下载全部。         NLTK 包括一组不同的语料库可以使用 nltk.corpus 包读取。每个语料库都通过 nltk.corpus 中的“语料库阅读器”对象进行访问 # Builtin corpora in NLTK (https://www.nltk.org/howto/corpus.html) import nltk.corpus from nltk.corpus import brown brown.fileids()         每个语料库阅读器都提供多种从语料库读取数据的方法具体取决于语料库的格式。例如纯文本语料库支持将语料库读取为原始文本、单词列表、句子列表或段落列表的方法。 from nltk.corpus import inaugural inaugural.raw(1789-Washington.txt) 四、单词列表和词典         NLTK 数据包还包括许多词典和单词列表。这些的访问就像文本语料库一样。以下示例说明了词表语料库的使用 from nltk.corpus import words words.fileids()         停用词对文本含义添加很少或没有添加的单词。 from nltk.corpus import stopwords stopwords.fileids() 五、语料库与词典         语料库是特定语言的文本数据书面或口头的大量集合。语料库可能包含有关单词的附加信息例如它们的 POS 标签或句子的解析树等。         词典是语言的词位词汇的整个集合。许多词典包含一个核心标记lexeme、其名词形式、形容词形式、相关动词、相关副词等、其同义词、反义词等。 NLTK提供了一个opinion_lexicon其中包含英语正面和负面意见词的列表 from nltk.corpus import opinion_lexicon opinion_lexicon.negative()[:5] 六、NLTK 中的简单 NLP 任务 # Tokenization from nltk import word_tokenize, sent_tokenize sent I will walk 500 miles and I would walk 500 more, just to be the man who walks a thousand miles to fall down at your door! print(word_tokenize(sent)) print(sent_tokenize(sent)) #Stopwords removal from nltk.corpus import stopwords # the corpus module is an extremely useful one. sent I will pick you up at 5.00 pm. We will go for a walk stop_words stopwords.words(english) # this is the full list of all stop-words stored in nltk token nltk.word_tokenize(sent) cleaned_token [] for word in token:if word not in stop_words:cleaned_token.append(word) print(This is the unclean version:, token) print(This is the cleaned version:, cleaned_token) # Stemming from nltk.stem import PorterStemmer stemmer PorterStemmer() print(stemmer.stem(feet)) # Lemmatization import nltk from nltk.stem.wordnet import WordNetLemmatizer lemmatizer WordNetLemmatizer() print(lemmatizer.lemmatize(feet)) # POS tagging from nltk import pos_tag from nltk.corpus import stopwords stop_words stopwords.words(english)sentence The pos_tag() method takes in a list of tokenized words, and tags each of them with a corresponding Parts of Speech tokens nltk.word_tokenize(sentence)cleaned_token [] for word in tokens:if word not in stop_words:cleaned_token.append(word) tagged pos_tag(cleaned_token) print(tagged) 七、命名实体识别 NER 是 NLP 任务用于定位命名实体并将其分类为预定义的类别例如人名、组织、位置、时间表达、数量、货币价值、百分比等。它有助于回答如下问题 报告中提到了哪些公司该推文是否谈到了特定的人新闻文章中提到了哪些地方、哪些公司正在谈论哪种产品 entities nltk.chunk.ne_chunk(tagged) entities 八、WordNet 语料库阅读器         WordNet 是 WordNet 的 NLTK 接口。WordNet 是英语词汇数据库。WordNet 使用 Synsets 来存储单词。同义词集是一组具有共同含义的同义词。使用同义词集它有助于找到单词之间的概念关系。 使用 NLTK 朴素贝叶斯分类器构建电影评论分类器 import nltk import string #from nltk.tokenize import sent_tokenize, word_tokenize from nltk.corpus import stopwords from nltk.corpus import movie_reviewsneg_files movie_reviews.fileids(neg) pos_files movie_reviews.fileids(pos)def feature_extraction(words):stopwordsandpunct nltk.corpus.stopwords.words(english) list(string.punctuation)return { word:present for word in words if not word in stopwordsandpunct}neg_words [(feature_extraction(movie_reviews.words(fileids[f])), neg) for f in neg_files] pos_words [(feature_extraction(movie_reviews.words(fileids[f])), pos) for f in pos_files]from nltk.classify import NaiveBayesClassifier #load the buildin classifier clf NaiveBayesClassifier.train(pos_words[:500]neg_words[:500]) #train it on 50% of records in positive and negative reviews nltk.classify.util.accuracy(clf, pos_words[500:]neg_words[500:])*100 #test it on remaining 50% recordsclf.show_most_informative_features() 九、结论         本文记载了NLTK库的部分使用常识其中重要点是1数据集从哪里去找。2如何使用这个库 3如何读取语料集。 这些对通常实验或项目开发有很重要的参考价值。
http://www.zqtcl.cn/news/466640/

相关文章:

  • 自己做网站需要的技术个人简历表格下载
  • 做网站建设小程序ukidc做电影网站
  • 网站内容分析软文范例100字
  • 网站建站策划用vs做网站
  • 如何建自己的网站做农村电子商务的网站有哪些内容
  • 手机销售网站设计怎么推广软件让别人下载
  • 贵州三蒲建设工程有限公司网站莱阳网站制作
  • 外贸买家网站适合初学者模仿的网站
  • 安徽蚌埠怀远县建设局网站米卓网站建设
  • 网站框架怎么建设微信旧版本下载
  • 速贝网站友情链接怎么做企业网站开发的设计流程
  • 网站建设 安庆网站开发免责合同
  • 天津深圳网站开发定制网络工程考研方向
  • 做app网站的公司哪家好济南网站建设市场
  • 自己做网站页面网站国内空间和国外空间
  • 桂城网站制作公司asp.net jsp 网站
  • 太原免费静态网页制作网站如何搭建钓鱼网站
  • 英语门户网站织梦源码修改wordpress登录页面
  • 网络建设和网站建设网站快速收录提交
  • 免费的建设网站软件北京电力交易中心谢开
  • 建设一个网站需要提供什么手续好看的美食网站设计
  • 西宁网站seo公司网站建设和维护释义
  • 建站平台有哪些免费一键搭建网站wordpress ent 主题
  • 国内比较大的源码网站营销型网站与普通网站的区别
  • 眼镜企业网站建设方案广州最新新闻
  • 茶业网站设计方案绍兴网站建设方案托管
  • 怎样免费建设网站网站建设规划书txt微盘
  • 邯郸网站设计培训做网站建设公司crm在线的培训服务
  • 网站建设文化案例萧山网页设计
  • 融安有那几个网站做的比较好的林州网站建设熊掌号