当前位置: 首页 > news >正文

seo站外推广如何用wampp 做网站

seo站外推广,如何用wampp 做网站,国家建设环保局网站,企业邮箱可以是个人qq邮箱吗去重基本原理 爬虫中什么业务需要使用去重 防止发出重复的请求防止存储重复的数据 在爬取网页数据时#xff0c;避免对同一URL发起重复的请求#xff0c;这样可以减少不必要的网络流量和服务器压力#xff0c;提高爬虫的效率#xff0c;在将爬取到的数据存储到数据库或其…去重基本原理 爬虫中什么业务需要使用去重 防止发出重复的请求防止存储重复的数据 在爬取网页数据时避免对同一URL发起重复的请求这样可以减少不必要的网络流量和服务器压力提高爬虫的效率在将爬取到的数据存储到数据库或其他存储系统之前去除重复的数据条目确保数据的唯一性和准确性。它不仅关系到数据的质量也影响着爬虫的性能和效率。 根据给定的判断依据和给定的去重容器将原始数据逐一进行判断判断去重容器中是否有该数据。如果没有那就把该数据对应的判断依据添加去重容器中同时标记该数据是不重复数据如果有就不添加同时标记该数据是重复数据。  临时去重容器指如利用list、set等编程语言的数据结构存储去重数据一旦程序关闭或重启后去重容器中的数据就被回收了。使用与实现简单方便但无法共享、无法持久化 持久化去重容器指如利用redis、mysql等数据库存储去重数据。 在爬虫中进行去重处理可以使用信息摘要算法如MD5、SHA1等来实现。以下是一个简单的Python示例使用MD5进行去重 信息摘要hash算法 import hashlibdef md5_hash(text):md5 hashlib.md5()md5.update(text.encode(utf-8))return md5.hexdigest()def remove_duplicates(data_list):unique_list []seen_hashes set()for data in data_list:hash_value md5_hash(data)if hash_value not in seen_hashes:seen_hashes.add(hash_value)unique_list.append(data)return unique_listdata_list [苹果, 香蕉, 橙子, 苹果, 橙子] unique_list remove_duplicates(data_list) print(unique_list) 在这个示例中我们首先定义了一个md5_hash函数用于计算给定文本的MD5哈希值。然后我们定义了一个remove_duplicates函数该函数接受一个数据列表并使用一个集合seen_hashes来存储已经遇到的哈希值。对于列表中的每个数据项我们计算其哈希值如果该哈希值尚未出现在seen_hashes集合中我们将其添加到集合中并将数据项添加到结果列表unique_list中。最后我们返回去重后的结果列表。 信息摘要hash算法指可以将任意长度的文本、字节数据通过一个算法得到一个固定长度的文本。 如MD5(128位)、SHA1(160位)等。摘要算法主要用于比对信息源是否一致因为只要源发生变化得到的摘要必然不同而且通常结果要比源短很多。  基于simhash算法的去重  Simhash算法是一种用于文本相似度计算的哈希算法可以用于去重处理。Simhash算法是一种局部敏感哈希算法能实现相似文本内容的去重。 import jieba from simhash import Simhashdef remove_duplicates(data_list):unique_list []seen_hashes set()for data in data_list:words jieba.cut(data)simhash_value Simhash( .join(words)).valueif simhash_value not in seen_hashes:seen_hashes.add(simhash_value)unique_list.append(data)return unique_listdata_list [苹果, 香蕉, 橙子, 苹果, 橙子] unique_list remove_duplicates(data_list) print(unique_list) 我们首先导入了jieba库用于中文分词和simhash库用于计算Simhash值。然后我们定义了一个remove_duplicates函数该函数接受一个数据列表并使用一个集合seen_hashes来存储已经遇到的Simhash值。对于列表中的每个数据项我们使用jieba库进行分词然后计算其Simhash值。如果该Simhash值尚未出现在seen_hashes集合中我们将其添加到集合中并将数据项添加到结果列表unique_list中。最后我们返回去重后的结果列表。 Simhash的特征 信息摘要算法如果原始内容只相差一个字节所产生的签名也很可能差别很大。 Simhash算法如果原始内容只相差一个字节所产生的签名差别非常小。  布隆过滤器 布隆过滤器是一种空间效率极高的概率型数据结构用于判断一个元素是否可能在集合中。 网络爬虫 网络爬虫在爬取网页数据时需要避免爬取相同的URL地址。布隆过滤器可以用于存储已经访问过的URL从而快速判断一个新的URL是否已经被爬取过提高爬虫的效率。 反垃圾邮件在反垃圾邮件系统中布隆过滤器可以帮助快速判断一封邮件是否可能是垃圾邮件。通过将已知的垃圾邮件特征存储在布隆过滤器中系统可以在数十亿个邮件列表中迅速识别出可能的垃圾邮件。 Web拦截器在网络安全领域布隆过滤器可以用作WEB拦截器快速检查并拦截重复的恶意请求防止网站被重复攻击。 位数组初始化布隆过滤器首先维护一个bitArray位数组在初始状态下所有数据都置为0。使用多个哈希函数当一个元素加入布隆过滤器时会通过K个不同的哈希函数计算出K个哈希值这些值对应到位数组中的K个位置并将这些位置的值置为1。误判率与数组大小布隆过滤器存在一定的误判率即可能会将不属于集合的元素误判为属于集合。降低误判率通常需要增大位数组的大小。查询操作进行查询时同样使用那K个哈希函数计算待查询元素的哈希值并检查位数组中对应的K个位置是否都为1。如果是则认为元素可能在集合中如果任一位不为1则元素肯定不在集合中。添加操作向布隆过滤器中添加元素时按照上述方法设置位数组中的相应位为1。由于位被设置为1后不会再变回0所以布隆过滤器不支持删除操作。实际应用布隆过滤器常用于判断一个元素是否可能已经存在于一个大规模数据集中例如网络爬虫中用于过滤已访问过的URL等场景。性能优势布隆过滤器的主要优点是空间效率和查询速度快但它的缺点是不能保证100%的准确性且无法删除元素。优化措施为了减少误判率可以采用增加位数组大小、使用更多或更强的哈希函数等策略。同时可以通过计数布隆过滤器等变种来支持元素的删除操作。 布隆过滤器是一种以空间换取时间效率的数据结构适用于那些可以接受一定误判率但需要快速判断元素是否存在的场景。在设计布隆过滤器时需要根据实际应用场景和可接受的误判率来选择合适的位数组大小和哈希函数数量。 我的博客即将同步至腾讯云开发者社区邀请大家一同入驻https://cloud.tencent.com/developer/support-plan?invite_code1x4tmatnj0ypv
http://www.zqtcl.cn/news/96277/

相关文章:

  • 有哪几个平台做网站专业的网站建设流程
  • 网站的回到顶部怎么做字体艺术设计在线生成
  • 物流营销型网站案例分析渭南专业做网站
  • 织梦音乐网站接推广任务的平台
  • 网站建设设计团队平面设计主要做什么ui
  • 站长工具seo综合查询广告和京东一样的网站
  • 柳州做网站的企业做黑彩网站
  • 商城网站开发那家好网站建设知识平台
  • 莱州网站定制flash网站cms
  • 经营范围里的网站建设直播系统程序
  • 58同城类似的网站开发wordpress 地方生活
  • wordpress 七牛ossseo系统
  • 郑州做网站 熊掌号太原今天最新通知
  • 文章网站如何与压力做足球比赛直播间在线观看
  • 越秀网站建设优化呼和浩特住房和城乡建设部网站
  • 河南省路桥建设集团网站建网站公司郑州
  • 海沧做网站深圳外贸招聘
  • 网站建设置顶多少钱翻译成英文
  • 柳州正规网站制作公司哪家好怎么学好网站建设
  • 德宏做网站网站的设计思路范文
  • 自己的电脑做网站服务器深圳福田有什么好玩的地方
  • 奕腾网站建设上海十大装修公司排名榜单
  • 简述建设一个网站的基本步骤wordpress欢迎新会员
  • 国外医疗网站模板wordpress主题 科技
  • 海淀企业型网站建设wordpress自定义帖子链接
  • 自己的网站怎么优化做网页的
  • dw设计一个简单网站网页微信版文件传输
  • 网站地图怎么做XML宁波网站建设服务提供商
  • 中石化两学一做网站获取网站域名
  • 吉林长春火车站官网湖北葛洲坝建设工程网站