当前位置: 首页 > news >正文

四川省城乡和住房建设厅网站首页企业网站建设费用需要多少钱

四川省城乡和住房建设厅网站首页,企业网站建设费用需要多少钱,电商代运营公司十强,手机网站建设地址Keras 是一个用 Python 编写的高级神经网络 API#xff0c;它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果#xff0c;是做好研究的关键。 本文以Kaggle上的项目:IMDB影评情感分析为例,… Keras 是一个用 Python 编写的高级神经网络 API它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果是做好研究的关键。 本文以Kaggle上的项目:IMDB影评情感分析为例,学习如何用Keras搭建一个神经网络,处理实际问题.阅读本文需要对神经网络有基础的了解. 文章分为两个部分: Keras中的一些基本概念.Api用法.我会给出一些简单的使用样例,或是给出相关知识链接.IMDB影评情感分析实战.用到的都是第一部分中讲到的知识点.Model Dense 全连接层 keras.layers.core.Dense(units, activationNone, use_biasTrue, k ernel_initializerglorot_uniform, bias_initializerzeros, ke rnel_regularizerNone, bias_regularizerNone, activity_regulariz erNone, kernel_constraintNone, bias_constraintNone) # as first layer in a sequential model: # as first layer in a sequential model: model Sequential() model.add(Dense(32, input_shape(16,))) # now the model will take as input arrays of shape (*, 16) # and output arrays of shape (*, 32) # after the first layer, you dont need to specify # the size of the input anymore: model.add(Dense(32)) 嵌入层 Embedding keras.layers.embeddings.Embedding(input_dim, output_dim, embeddi ngs_initializeruniform, embeddings_regularizerNone, activity _regularizerNone, embeddings_constraintNone, mask_zeroFalse, input_lengthNone) 有兴趣的看这个链接https://machinelearningmastery.com/use-word-embedding-layers-deep-learning-keras/ 其实就是word to vector。 这一层的作用就是得到用词向量表示的文本. input_dim: 词表的大小.即不同的词的总个数.output_dim:想要把词转换成多少维的向量.input_length: 每一句的词的个数比如如下代表:我们输入一个M*50的矩阵,这个矩阵中不同的词的个数为200,我们想把每个词转换为32维向量. 返回的是一个(M,50,32)的张量. 一个句子50个词,每个词是32维向量,共M个句子. 所以是e.shape(M,50,32) e Embedding(200, 32, input_length50) LSTM层. LSTM是循环神经网络的一种特殊情况.http://deeplearning.net/tutorial/lstm.html 简单来说,我们此前说过的神经网络,包括CNN,都是单向的,没有考虑序列关系,但是某个词的意义与其上下文是有关的,比如我用着小米手机,吃着小米粥,两个小米肯定不是一个意思.在做语义分析的时候,需要考虑上下文. 循环神经网络RNN就是干这个事情的.或者说这部电影质量很高,但是我不喜欢.这个句子里既有正面评价,又有负面评价,参考上下文的LSTM会识别出但是后面的才是我们想要重点表达的. keras.layers.recurrent.LSTM(units, activationtanh, recurrent_ activationhard_sigmoid, use_biasTrue, kernel_initializergl orot_uniform, recurrent_initializerorthogonal, bias_initiali zerzeros, unit_forget_biasTrue, kernel_regularizerNone, rec urrent_regularizerNone, bias_regularizerNone, activity_regular izerNone, kernel_constraintNone, recurrent_constraintNone, bi as_constraintNone, dropout0.0, recurrent_dropout0.0) 池化层 keras.layers.pooling.GlobalMaxPooling1D() #对时间信号的全局最大池化 https://stackoverflow.com/questions/43728235/what-is-the-difference-between-keras-maxpooling1d-and-globalmaxpooling1d-functi input:形如 samples steps features 的3D张量output:形如(samples, features)的2D张量keras.layers.pooling.MaxPooling1D(pool_size2, stridesNone, pad dingvalid)keras.layers.pooling.MaxPooling2D(pool_size(2, 2), stridesNone , paddingvalid, data_formatNone)keras.layers.pooling.MaxPooling3D(pool_size(2, 2, 2), stridesN one, paddingvalid, data_formatNone)....数据预处理 文本预处理 keras.preprocessing.text.text_to_word_sequence(text, filtersbase_filter(), lowerTrue, split )keras.preprocessing.text.one_hot(text, n, filtersbase_filter(), lowerTrue, split )keras.preprocessing.text.Tokenizer(num_wordsNone, filtersbase_ filter(), lowerTrue, split ) Tokenizer是一个用于向量化文本 或将文本转换为序列 即单词在字典中的下标构 成的列表 从1算起 的类。 num_words None或整数 处理的最大单词数量。 若被设置为整数 则分词器 将被限制为处理数据集中最常见的 num_words 个单词不管num_words是几,fit_on_texts以后词典都是一样的,全部的词都有对应的index.只是在做texts_to_sequences时所得结果不同.会取最常出现的(num_words - 1)个词对应的index来代表句子.注意num_words不同时,准换后X_t的不同. 只取词典中出现最多的num_words - 1代表句子.如果一个句子中出现特别生僻的词,就会被过滤掉.比如一个句子x y z.y,z不在词典中最常出现的top num_words-1的话,最后这个句子的向量形式则为[x_index_in_dic]t1i love that girl t2i hate u texts[t1,t2] tokenizer Tokenizer(num_wordsNone) tokenizer.fit_on_texts(texts) #得到词典 每个词对应一个index. print( tokenizer.word_counts) #OrderedDict([(i, 2), (love, 1), (that, 1), (girl, 1), (hate, 1), (u, 1)]) print( tokenizer.word_index) #{i: 1, love: 2, that: 3, girl: 4, hate: 5, u: 6} print( tokenizer.word_docs) #{i: 2, love: 1, that: 1, girl: 1, u: 1, hate: 1}) print( tokenizer.index_docs) #{1: 2, 2: 1, 3: 1, 4: 1, 6: 1, 5: 1} tokennized_texts tokenizer.texts_to_sequences(texts) print(tokennized_texts) #[[1, 2, 3, 4], [1, 5, 6]] 每个词由其index表示X_t pad_sequences(tokennized_texts, maxlenNone) #转换为2d array 即矩阵形式. 每个文本的词的个数均为maxlen. 不存在的词用0表示. print(X_t)#[[1 2 3 4][0 1 5 6]] 序列预处理 keras.preprocessing.sequence.pad_sequences(sequences, maxlenNone , dtypeint32, paddingpre, truncatingpre, value0.) 返回一个2阶张量keras.preprocessing.sequence.skipgrams(sequence, vocabulary_size , window_size4, negative_samples1., shuffleTrue, categoricalFalse, sampling_tableNone)keras.preprocessing.sequence.make_sampling_table(size, sampling_ factor1e-5)keras实战:IMDB影评情感分析 数据集介绍 labeledTrainData.tsv/imdb_master.csv 影评数据集 已经标注对电影是正面/负面评价testData.tsv 测试集 需要预测评论是正面/负面主要步骤 数据读取数据清洗 主要包括去除停词,去除html tag,去除标点符号模型构建 嵌入层:完成词到向量的转换LSTM池化层:完成重要特征抽取全连接层分类数据加载 import pandas as pd import matplotlib.pyplot as plt import numpy as np df_train pd.read_csv(./dataset/word2vec-nlp-tutorial/labeledTrainData.tsv, header0, delimiter\t, quoting3) df_train1pd.read_csv(./dataset/imdb-review-dataset/imdb_master.csv,encodinglatin-1) df_train1df_train1.drop([type,file],axis1) df_train1.rename(columns{label:sentiment,Unnamed: 0:id,review:review}, inplaceTrue) df_train1 df_train1[df_train1.sentiment ! unsup] df_train1[sentiment] df_train1[sentiment].map({pos: 1, neg: 0}) new_trainpd.concat([df_train,df_train1])数据清洗 用bs4处理html数据 过滤出单词去除停用词import re from bs4 import BeautifulSoup from nltk.corpus import stopwords def review_to_words( raw_review ):review_text BeautifulSoup(raw_review, lxml).get_text() letters_only re.sub([^a-zA-Z], , review_text) words letters_only.lower().split() stops set(stopwords.words(english)) meaningful_words [w for w in words if not w in stops] return( .join( meaningful_words )) new_train[review]new_train[review].apply(review_to_words) df_test[review]df_test[review].apply(review_to_words) Keras搭建网络 文本转换为矩阵 - Tokenizer作用于list(sentence)得到词典.将词用词在词典中的Index做替换,得到数字矩阵 - pad_sequences做补0. 保证矩阵每一行数目相等. 即每个句子有相同数量的词. list_classes [sentiment] y new_train[list_classes].values print(y.shape) list_sentences_train new_train[review] list_sentences_test df_test[review]max_features 6000 tokenizer Tokenizer(num_wordsmax_features) tokenizer.fit_on_texts(list(list_sentences_train)) list_tokenized_train tokenizer.texts_to_sequences(list_sentences_train) list_tokenized_test tokenizer.texts_to_sequences(list_sentences_test)print(len(tokenizer.word_index))totalNumWords [len(one_comment) for one_comment in list_tokenized_train] print(max(totalNumWords),sum(totalNumWords) / len(totalNumWords))maxlen 400 X_t pad_sequences(list_tokenized_train, maxlenmaxlen) X_te pad_sequences(list_tokenized_test, maxlenmaxlen) 模型构建 词转向量inp Input(shape(maxlen, )) print(inp.shape) # (?, 400) #每个句子400个词 embed_size 128 #每个词转换成128维的向量 x Embedding(max_features, embed_size)(inp) print(x.shape) #(?, 400, 128) LSTM 60个神经元GlobalMaxPool1D 相当于抽取出最重要的神经元输出DropOut 丢弃部分输出 引入正则化,防止过拟合Dense 全连接层模型编译时指定损失函数,优化器,模型效果评测标准x LSTM(60, return_sequencesTrue,namelstm_layer)(x) print(x.shape) x GlobalMaxPool1D()(x) print(x.shape) x Dropout(0.1)(x) print(x.shape) x Dense(50, activationrelu)(x) print(x.shape) x Dropout(0.1)(x) print(x.shape) x Dense(1, activationsigmoid)(x) print(x.shape) model Model(inputsinp, outputsx) model.compile(lossbinary_crossentropy,optimizeradam,metrics[accuracy])模型训练batch_size 32 epochs 2 print(X_t.shape,y.shape) model.fit(X_t,y, batch_sizebatch_size, epochsepochs, validation_split0.2) 使用模型预测prediction model.predict(X_te) y_pred (prediction 0.5) 转载于:https://www.cnblogs.com/sdu20112013/p/10428471.html
http://www.zqtcl.cn/news/775748/

相关文章:

  • 网站源代码免费下载苏州seo网络优化公司
  • 建网站跟建网店的区别pico笔克品牌介绍
  • 网站设计小技巧西安网站建设网站
  • 做听书网站怎么做网站留言板带后台模板
  • 石家庄网站建设王道下拉棒厦门橄榄网站建设
  • 赤峰网站建设培训建筑资格证书查询官网
  • 共和县公司网站建设seo网络推广招聘
  • 网站怎样做外链百度网站地图提交
  • 瑞安联科网站建设中国做网站公司排名
  • jsp网站开发详解 赵增敏jsp网站首页怎么做
  • 有哪些可以做图的网站啊莱芜金点子广告电子版2024
  • 免费营销型网站模版南宁比较有好的网站制作公司
  • 做外贸上什么网站什么什么设计英文网站
  • 嘿客免费网站建设网站对联图片
  • 一件代发48个货源网站韶关最新消息
  • 网站都需要备案吗安徽建设通网站
  • 外包公司 网站建设 深圳电子商务公司设计网站建设
  • 怎么添加网站背景音乐定制建站
  • 西安网站建设和推广公司php企业网站开发实训报告
  • 市网站制作番禺绿叶居
  • 网站漂浮物怎么做电子商务网站开发实训体会
  • 电商网站建设定制济南网站建设及推广
  • 网站标签化wordpress 输出评论内容 函数
  • 明星个人网站设计汕头网络推广公司
  • 深圳有哪些做网站公司好武夷山建设局网站
  • 怎么设立网站赚广告费一个网站可以做多少关键字
  • 网站刚建好怎么做能让百度收录成都定制网站建
  • thinkphp网站开发技术做电脑租赁网站
  • 网站设计评语中午版wordpress
  • 邢台企业手机网站建设汕头网站制作后缀