如何在分类信息网站做推广,建筑模板图片高清,家居网站建设策划,怎样创业白手起家开公司卷积神经网络爬虫实现网易新闻自动爬取并分类 项目地址 采用THUCnews全部数据集进行训练#xff0c;效果如下。 详细实现见./text_classification 部署步骤如下#xff1a; 运行环境 服务器#xff1a;Ubuntu 16.04 数据库#xff1a;Mysql 5.6 python#xf… 卷积神经网络爬虫实现网易新闻自动爬取并分类 项目地址 采用THUCnews全部数据集进行训练效果如下。 详细实现见./text_classification 部署步骤如下 运行环境 服务器Ubuntu 16.04 数据库Mysql 5.6 pythonAnaconda 5.1 Tensorflow-CPU1.7 额外的包参考requirements.txt,有则忽略,无则安装。 certifi2018.1.18
chardet3.0.4
Django2.0.4
docopt0.6.2
idna2.6
mysql-connector2.1.6
pipreqs0.4.9
pytz2018.4
requests2.18.4
SQLAlchemy1.2.6
urllib31.22
yarg0.1.9首先安装mysql到数据库执行text_classification.sql创建数据库。更改数据库配置./text_classification/connect_mysql.py服务器安装Anaconda(清华大学镜像站自行下载安装),安装TensorFlow-CPU版将本项目部署至/home/www目录下安装其他依赖包 pip install -r requirements.txt 服务器部署Django环境(apache2.4) 参考https://code.ziqiangxuetang.com/django/django-deploy.html 关于本项目部署中的Django配置请看以下操作 安装 apache2 和 mod_wsgi sudo apt-get install apache2 sudo apt-get install libapache2-mod-wsgi-py3 新建网站配置文件 vim /etc/apache2/sites-available/text_classification.conf 输入以下内容 VirtualHost classify.i-ll.cc:80ServerName classify.i-ll.ccServerAlias classify.i-ll.ccServerAdmin dandanv5hotmail.comAlias /static /home/www/text_classification/staticDirectory /home/www/text_classificationRequire all granted/DirectoryWSGIScriptAlias / /home/www/text_classification/myweb/wsgi.pyDirectory /home/www/text_classification/mywebFiles wsgi.pyRequire all granted/Files/Directory
/VirtualHost激活新网站 sudo a2ensite sitename.conf 7. 启动项目 cd /home/www/text_classification/text_classification sh startproject.sh 项目运行日志在./log下 最后本项目使用的THUCNews中文新闻数据集,可以去官网下载。我对数据集进行了整合处理,下载地址见./text_classification/data/cnews/README.md 关于本项目中模型和爬虫部分,详见./text_classification/README.md 代码有问题请直接提issues。 部署有疑问请直接联系 QQ447600334 Emaildandanv5hotmail.com 参考CNN字符级中文文本分类-基于TensorFlow实现 转载于:https://www.cnblogs.com/Chizhao/p/10439733.html