当前位置: 首页 > news >正文

可以做动漫的网站专业东莞网站制作公司

可以做动漫的网站,专业东莞网站制作公司,asp网站源码下载,哈尔滨如何免费制作网站目录 一、三者共同点 二. 三者差异与基本使用 (一). 使用示例#xff1a; (二). XPath (三). Beautiful Soup (四). pyquery (五). 三者差异 三.练习实战 一、三者共同点 导入#xff0c;获得网页文本#xff0c;str 和 bytes 类型均可作为参数传入。 import reque…目录 一、三者共同点 二. 三者差异与基本使用 (一). 使用示例 (二). XPath (三). Beautiful Soup (四). pyquery (五). 三者差异 三.练习实战 一、三者共同点 导入获得网页文本str 和 bytes 类型均可作为参数传入。 import requests from lxml import etree # XPath from bs4 import BeautifulSoup from pyquery import PyQuery as pqurl response requests.get(url) # 获得响应 content response.text # 获得网页文本.text获得 str 类型 # content response.content # .content 获得 bytes 类型 二. 三者差异与基本使用 (一). 使用示例 content div classpaneldiv classpanel-headingh4 hrefh4_1Hello/h4/divdiv classpanel-bodyul classlist idlist-1li classelementFoo/lili classelementBar/lili classelementJay/li/ulul classlist list-small idlist-2li classelementFoo/lili classelementBar/li/ul/div /div(二). XPath 获得网页文本后解析及解析得到的类型 html etree.HTML(content) # 获得解析对象 # print(html, type(html)) # Element html at 0x21626b253c0 class lxml.etree._Element # purpose_content html.xpath() # 开始解析purpose_content html.xpath(//ul[classlist list-small]) # purpose_content html.xpath(//ul[contains(class, score)]) 等同上句 print(purpose_content, type(purpose_content)) # class listli_text html.xpath(//li/text()) print(li_text) # [Element ul at 0x181e8f79800] class list # [Foo, Bar, Jay, Foo, Bar] 可以看到 .xparh 解析得到的类型为 Element是列表所以可以遍历内容对其中的节点元素进行操作即也可以 .xpath 解析。 如果 class 内容较长可用 contains 。 解析匹配规则 大多以 // 开头/子节点./表示本身 例如 属性匹配 //div[属性“ ”]/li/a/text() 获得文本注意里面是双引号 是指匹配 div 里的属性 //div/class 获得 div 节点中的属性 在 li 节点获取其文本./text() 详细内容见3.1 XPath的使用-CSDN博客 (三). Beautiful Soup 获得网页文本后获得解析对象 soup BeautifulSoup(content, lxml) print(soup, type(soup)) # 输出 content 内容和 class bs4.BeautifulSoup解析方法和解析得到的类型、获取属性 # 节点选择器 purpose_content soup.div.h4 print(purpose_content,type(purpose_content)) # h4Hello/h4 class bs4.element.Tag print(purpose_content.string) # 对节点进行获取文本 输出Hello print(purpose_content.attrs[href]) # 等同 print(purpose_content[href])# 方法选择器 purpose_content soup.find_all(ul, class_list) # 指 ul 的class print(purpose_content,type(purpose_content)) # 输出一个 节点文本列表 和 class bs4.element.ResultSet# css 选择器 purpose_content soup.select(div ul li) # 空格往子节点去 purpose_content2 soup.select(.list) # 若 classword1 word2,则(.word1.word2) print(purpose_content,type(purpose_content)) # 输出 列表 和 class bs4.element.ResultSet 可以看到 soup. 解析后得到的是 Tag 或者 ResultSet 类型分别对应单个内容和列表但都可以继续解析通过 . 往后解析和获得属性。 详细内容见3.2 Beautiful Soup 的使用-CSDN博客 (四). pyquery 获得网页文本后 doc pq(content) print(doc, type(doc)) # 输出 content 内容 和 class pyquery.pyquery.PyQuery 解析方法和解析得到的类型、获取属性 # 直接使用 CSS 选择器 h4 doc(h4) # 单个节点 print(h4, type(h4)) # 节点内容 和 PyQuery类型 print(h4.text()) # 纯文本.html()获取 html文本lis doc(.list li) # 多个节点 print(type(lis)) # PyQuery 类型 items lis.items() for item in items:print(item.text()) # Foo Bar Jay Foo Bar # doc()会直接包含只要有 list 的class 就会算进去 可以看到都是 PyQuery 类型可直接通过 . 解析注意单个节点和多个节点多个节点需使用 .items 方法获取生成器迭代获得内容。 详细内容可见3.3 pyquery 的使用-CSDN博客 (五). 三者差异 XPath 主要通过 常用规则 .xpath() 解析例如///./等Beautiful Soup 可用节点选择器( soup.节点.节点.)方法选择器(soup.find_all / find)CSS选择器(soup.select( CSS规则)) 解析PyQuery 主要通过 doc(CSS规则) 解析比 Beautiful Soup 的CSS选择器方便一点; 三者都要注意以下多个节点迭代。 三.练习实战 2 三种解析方式爬取王者荣耀英雄图片-CSDN博客 文章到此结束本人新手若有错误欢迎指正若有疑问欢迎讨论。若文章对你有用点个小赞鼓励一下谢谢大家一起加油吧
http://www.zqtcl.cn/news/321149/

相关文章:

  • 乐清网站开发公司个人网站建设工作室
  • 网站空间升级通知手机端怎么看世界杯
  • 广西南宁网站推广建设网站视频教程
  • 福州专业网站建设推广费用nas可做网站服务器吗
  • 齐鲁建设网站福建省高速公路建设管理网站
  • 比格设计网站官网收录网站查询
  • 国外做直播网站淘宝电商网站怎么做的
  • 国外私人网站网站由那些组成
  • 网站备案多久通过机械设备网站
  • 企业自建站案例网站基础知识域名5个点
  • 咸宁建设网站海口市网站建设
  • 认识电子商务网站建设技术网站交换链接怎么做?
  • 定制商城网站建设全球搜索引擎排名2021
  • 徐州百度网站快速优化做网站视频图片加载不出来
  • 网站被host重定向处理浙江网新股吧
  • asp国外网站什么页游好玩
  • 高端简约30平米办公室装修广州搜索seo网站优化
  • 海口的网站建设公司wordpress二次元极简主题
  • 南京快速建站公司国家网站域名
  • 兰州装修公司哪家好网站seo推广员招聘
  • 郑州网站推广 汉狮网络易企秀类似的软件
  • 做外单网站成都网页制作公司排名
  • 成都优化网站关键词搜索引擎有哪些平台
  • 福建百川建设有限公司网站郑州手机软件开发公司
  • 盐城企业做网站多少钱88建网站
  • 南京网站制作报价wordpress主题 yusi
  • 北京建网站已备案网站新增接入
  • 做搬家服务网站问卷调查的目的房产网签是什么意思
  • 江苏品牌网站设计美团后台管理系统登录
  • 没有备案的网站会怎么样深圳的互联网公司排名