新乡网站网站建设,深圳网站如何制作,电脑登录不了建设银行网站,阿雷网站建设给定一篇新闻的链接newsUrl#xff0c;获取该新闻的全部信息 标题、作者、发布单位、审核、来源 发布时间:转换成datetime类型 点击#xff1a; newsUrlnewsId(使用正则表达式re)clickUrl(str.format(newsId))requests.get(clickUrl)newClick(用字符串处理#xff0c;或正则…给定一篇新闻的链接newsUrl获取该新闻的全部信息 标题、作者、发布单位、审核、来源 发布时间:转换成datetime类型 点击 newsUrlnewsId(使用正则表达式re)clickUrl(str.format(newsId))requests.get(clickUrl)newClick(用字符串处理或正则表达式)int()整个过程包装成一个简单清晰的函数。 1 import requests2 import re3 from bs4 import BeautifulSoup4 def click(url):#获取点击次数5 idre.findall((\d{1,5}),url)[-1]6 clickUrlhttp://oa.gzcc.cn/api.php?opcountid{}modelid80.format(id)7 resrequests.get(clickUrl)8 newsClickres.text.split(.html)[-1].lstrip(().rstrip();)9 return newsClick
10
11 def newsdt(showinfo):#转换成datetime类型
12 newsDateshowinfo.split()[0].split(:)[1]
13 newsTimeshowinfo.split()[1]
14 newsDTnewsDate newsTime
15 #newsDTdatetime.strptime(newsDT,%Y-%m-%d %H:%M:%S)
16 return newsDT
17
18 def newsid(url):#获取新闻编号
19 newsIDre.findall((\d{1,5}),url)[-1]
20 return newsID
21
22 def news(url):
23 resrequests.get(url)
24 res.encodingutf-8
25 soupBeautifulSoup(res.text,html.parser)
26 titlesoup.select(.show-title)[0].text
27 showinfosoup.select(.show-info)[0].text
28 newsDTnewsdt(showinfo)
29 authorsoup.select(.show-info)[0].text.split()[2]#获取作者
30 checksoup.select(.show-info)[0].text.split()[3]#获取审核
31 comefromsoup.select(.show-info)[0].text.split()[4]#获取来源
32 detailsoup.select(.show-content )[0].text#获取新闻的具体内容
33 newsIDnewsid(url)#获取新闻编号
34 newsClickclick(url)#获取点击次数
35 title新闻标题title
36 newsClick文章点击次数newsClick
37 newsID新闻编号newsID
38 newsDT发布日期newsDT
39 pr(newsClick,title,newsDT,newsID,author,check,comefrom,detail)#输出新闻的各种信息
40 return pr
41 urlhttp://news.gzcc.cn/html/2019/jxky_0329/11100.html
42 print(news(url)) View Code 转载于:https://www.cnblogs.com/hzj111/p/10637364.html