当前位置: 首页 > news >正文

找人做彩票网站多少钱泰州seo顾问服务

找人做彩票网站多少钱,泰州seo顾问服务,html动漫网页设计作品及代码,二次元网站设计Python分布式爬虫打造搜索引擎Scrapy精讲—将bloomfilter(布隆过滤器)集成到scrapy-redis中#xff0c;判断URL是否重复 布隆过滤器(Bloom Filter)详解 基本概念 如果想判断一个元素是不是在一个集合里#xff0c;一般想到的是将所有元素保存起来#xff0c;然后通过比较确定…Python分布式爬虫打造搜索引擎Scrapy精讲—将bloomfilter(布隆过滤器)集成到scrapy-redis中判断URL是否重复   布隆过滤器(Bloom Filter)详解   基本概念 如果想判断一个元素是不是在一个集合里一般想到的是将所有元素保存起来然后通过比较确定。链表树等等数据结构都是这种思路. 但是随着集合中元素的增加我们需要的存储空间越来越大检索速度也越来越慢。不过世界上还有一种叫作散列表又叫哈希表Hash table的数据结构。它可以通过一个Hash函数将一个元素映射成一个位阵列Bit Array中的一个点。这样一来我们只要看看这个点是不是 1 就知道可以集合中有没有它了。这就是布隆过滤器的基本思想。 Hash面临的问题就是冲突。假设 Hash 函数是良好的如果我们的位阵列长度为 m 个点那么如果我们想将冲突率降低到例如 1%, 这个散列表就只能容纳 m/100 个元素。显然这就不叫空间有效了Space-efficient。解决方法也简单就是使用多个 Hash如果它们有一个说元素不在集合中那肯定就不在。如果它们都说在虽然也有一定可能性它们在说谎不过直觉上判断这种事情的概率是比较低的。   优点 相比于其它的数据结构布隆过滤器在空间和时间方面都有巨大的优势。布隆过滤器存储空间和插入/查询时间都是常数。另外, Hash 函数相互之间没有关系方便由硬件并行实现。布隆过滤器不需要存储元素本身在某些对保密要求非常严格的场合有优势。 布隆过滤器可以表示全集其它任何数据结构都不能 k 和 m 相同使用同一组 Hash 函数的两个布隆过滤器的交并差运算可以使用位操作进行。   缺点 但是布隆过滤器的缺点和优点一样明显。误算率False Positive是其中之一。随着存入的元素数量增加误算率随之增加。但是如果元素数量太少则使用散列表足矣。 另外一般情况下不能从布隆过滤器中删除元素. 我们很容易想到把位列阵变成整数数组每插入一个元素相应的计数器加1, 这样删除元素时将计数器减掉就可以了。然而要保证安全的删除元素并非如此简单。首先我们必须保证删除的元素的确在布隆过滤器里面. 这一点单凭这个过滤器是无法保证的。另外计数器回绕也会造成问题。     python 基于redis实现的bloomfilter(布隆过滤器)BloomFilter_imooc BloomFilter_imooc下载 下载地址https://github.com/liyaopinner/BloomFilter_imooc 依赖关系    python 基于redis实现的bloomfilter   依赖mmh3   安装依赖包   pip install mmh3   1、安装好BloomFilter_imooc所需要的依赖 2、将下载的BloomFilter_imooc包解压后将里面的py_bloomfilter.py文件复制到scrapy工程目录 py_bloomfilter.py(布隆过滤器)源码 import mmh3 import redis import math import timeclass PyBloomFilter():#内置100个随机种子SEEDS [543, 460, 171, 876, 796, 607, 650, 81, 837, 545, 591, 946, 846, 521, 913, 636, 878, 735, 414, 372,344, 324, 223, 180, 327, 891, 798, 933, 493, 293, 836, 10, 6, 544, 924, 849, 438, 41, 862, 648, 338,465, 562, 693, 979, 52, 763, 103, 387, 374, 349, 94, 384, 680, 574, 480, 307, 580, 71, 535, 300, 53,481, 519, 644, 219, 686, 236, 424, 326, 244, 212, 909, 202, 951, 56, 812, 901, 926, 250, 507, 739, 371,63, 584, 154, 7, 284, 617, 332, 472, 140, 605, 262, 355, 526, 647, 923, 199, 518]#capacity是预先估计要去重的数量#error_rate表示错误率#conn表示redis的连接客户端#key表示在redis中的键的名字前缀def __init__(self, capacity1000000000, error_rate0.00000001, connNone, keyBloomFilter):self.m math.ceil(capacity*math.log2(math.e)*math.log2(1/error_rate)) #需要的总bit位数self.k math.ceil(math.log1p(2)*self.m/capacity) #需要最少的hash次数self.mem math.ceil(self.m/8/1024/1024) #需要的多少M内存self.blocknum math.ceil(self.mem/512) #需要多少个512M的内存块,value的第一个字符必须是ascii码所有最多有256个内存块self.seeds self.SEEDS[0:self.k]self.key keyself.N 2**31-1self.redis conn# print(self.mem)# print(self.k)def add(self, value):name self.key _ str(ord(value[0])%self.blocknum)hashs self.get_hashs(value)for hash in hashs:self.redis.setbit(name, hash, 1)def is_exist(self, value):name self.key _ str(ord(value[0])%self.blocknum)hashs self.get_hashs(value)exist Truefor hash in hashs:exist exist self.redis.getbit(name, hash)return existdef get_hashs(self, value):hashs list()for seed in self.seeds:hash mmh3.hash(value, seed)if hash 0:hashs.append(hash)else:hashs.append(self.N - hash)return hashspool redis.ConnectionPool(host127.0.0.1, port6379, db0) conn redis.StrictRedis(connection_poolpool)# 使用方法 # if __name__ __main__: # bf PyBloomFilter(connconn) # 利用连接池连接Redis # bf.add(www.jobbole.com) # 向Redis默认的通道添加一个域名 # bf.add(www.luyin.org) # 向Redis默认的通道添加一个域名 # print(bf.is_exist(www.zhihu.com)) # 打印此域名在通道里是否存在存在返回1不存在返回0 # print(bf.is_exist(www.luyin.org)) # 打印此域名在通道里是否存在存在返回1不存在返回0     将py_bloomfilter.py(布隆过滤器)集成到scrapy-redis中的dupefilter.py去重器中使其抓取过的URL不添加到下载器没抓取过的URL添加到下载器   scrapy-redis中的dupefilter.py去重器修改 import logging import timefrom scrapy.dupefilters import BaseDupeFilter from scrapy.utils.request import request_fingerprintfrom . import defaults from .connection import get_redis_from_settings from bloomfilter.py_bloomfilter import conn,PyBloomFilter #导入布隆过滤器logger logging.getLogger(__name__)# TODO: Rename class to RedisDupeFilter. class RFPDupeFilter(BaseDupeFilter):Redis-based request duplicates filter.This class can also be used with default Scrapys scheduler.logger loggerdef __init__(self, server, key, debugFalse):Initialize the duplicates filter.Parameters----------server : redis.StrictRedisThe redis server instance.key : strRedis key Where to store fingerprints.debug : bool, optionalWhether to log filtered requests.self.server serverself.key keyself.debug debugself.logdupes True# 集成布隆过滤器self.bf PyBloomFilter(connconn, keykey) # 利用连接池连接Redisclassmethoddef from_settings(cls, settings):Returns an instance from given settings.This uses by default the key dupefilter:timestamp. When using thescrapy_redis.scheduler.Scheduler class, this method is not used asit needs to pass the spider name in the key.Parameters----------settings : scrapy.settings.SettingsReturns-------RFPDupeFilterA RFPDupeFilter instance.server get_redis_from_settings(settings)# XXX: This creates one-time key. needed to support to use this# class as standalone dupefilter with scrapys default scheduler# if scrapy passes spider on open() method this wouldnt be needed# TODO: Use SCRAPY_JOB env as default and fallback to timestamp.key defaults.DUPEFILTER_KEY % {timestamp: int(time.time())}debug settings.getbool(DUPEFILTER_DEBUG)return cls(server, keykey, debugdebug)classmethoddef from_crawler(cls, crawler):Returns instance from crawler.Parameters----------crawler : scrapy.crawler.CrawlerReturns-------RFPDupeFilterInstance of RFPDupeFilter.return cls.from_settings(crawler.settings)def request_seen(self, request):Returns True if request was already seen.Parameters----------request : scrapy.http.RequestReturns-------boolfp self.request_fingerprint(request)# 集成布隆过滤器if self.bf.is_exist(fp): # 判断如果域名在Redis里存在return Trueelse:self.bf.add(fp) # 如果不存在将域名添加到Redisreturn False# This returns the number of values added, zero if already exists.# added self.server.sadd(self.key, fp)# return added 0def request_fingerprint(self, request):Returns a fingerprint for a given request.Parameters----------request : scrapy.http.RequestReturns-------strreturn request_fingerprint(request)def close(self, reason):Delete data on close. Called by Scrapys scheduler.Parameters----------reason : str, optionalself.clear()def clear(self):Clears fingerprints data.self.server.delete(self.key)def log(self, request, spider):Logs given request.Parameters----------request : scrapy.http.Requestspider : scrapy.spiders.Spiderif self.debug:msg Filtered duplicate request: %(request)sself.logger.debug(msg, {request: request}, extra{spider: spider})elif self.logdupes:msg (Filtered duplicate request %(request)s - no more duplicates will be shown (see DUPEFILTER_DEBUG to show all duplicates))self.logger.debug(msg, {request: request}, extra{spider: spider})self.logdupes False     爬虫文件 #!/usr/bin/env python # -*- coding:utf8 -*-from scrapy_redis.spiders import RedisCrawlSpider # 导入scrapy_redis里的RedisCrawlSpider类 import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import Ruleclass jobboleSpider(RedisCrawlSpider): # 自定义爬虫类,继承RedisSpider类name jobbole # 设置爬虫名称allowed_domains [www.luyin.org] # 爬取域名redis_key jobbole:start_urls # 向redis设置一个名称储存urlrules (# 配置抓取列表页规则# Rule(LinkExtractor(allow(ggwa/.*)), followTrue),# 配置抓取内容页规则Rule(LinkExtractor(allow(.*)), callbackparse_job, followTrue),)def parse_job(self, response): # 回调函数注意因为CrawlS模板的源码创建了parse回调函数所以切记我们不能创建parse名称的函数# 利用ItemLoader类加载items容器类填充数据neir response.css(title::text).extract()print(neir) 启动爬虫 scrapy crawl jobbole cd 到redis安装目录执行命令redis-cli -h 127.0.0.1 -p 6379  连接redis客户端 连接redis客户端后执行命令lpush jobbole:start_urls http://www.luyin.org  向redis添加一个爬虫起始url 开始爬取   redis状态说明  转载于:https://www.cnblogs.com/meng-wei-zhi/p/8182833.html
http://www.zqtcl.cn/news/950136/

相关文章:

  • 怎么用链接进自己做的网站企业组织架构
  • 建设新网站征求意见网站设计佛山
  • 重庆建设造价工程信息网站东莞电商页面设计公司
  • 乔拓云智能建站官网登录入口怎么样做网站卖农产品
  • 怎么维护好网站网站的域名每年都要续费
  • 运动网站模板佛山三水区有没有网站建设公司
  • 申请微官网的网站国外域名注册商网站
  • 集团公司网站建设建设中学校园网站的来源
  • 产品展示网站含后台网站模板下载网站开发什么语言好
  • 做知乎网站的图片如何设计好网站
  • 广州企业网站推广织梦学校网站模板
  • 国内响应式网站案例深圳住房和城乡建设局网站
  • 网页制作网站首页中国建筑论坛网
  • 众创空间网站建设少年宫网站建设模块
  • 企业营销型网站的内容科技公司取名大全
  • 哈尔滨云建站模板投资公司的钱从哪里来
  • 海南做网站公司哪家好中国人做外贸生意的网站
  • 没有网站怎么做cpa成都百度推广公司地址
  • 龙湖地产 网站建设高端上海网站设计公司
  • 触屏手机网站模板装修设计软件排名
  • 怎么做盗文网站郑州建设教育培训中心
  • 网站安全解决方案嵌入式软件工程师培训
  • 怎么做一种网站为别人宣传网站界面切片做程序
  • 麻涌网站建设河北网站建设联系方式
  • 建设银行官方网站打不开啊寮步仿做网站
  • 一个人可做几次网站备案峰峰网站建设
  • 怎么盗号网站怎么做北京高端网站设计外包公司
  • 著名的淘宝客网站wordpress博客内容预览
  • 成都网站seo公司甘肃网站建设推广
  • 做网站加班网站项目意义