当前位置:首页 > 网络安全 > 正文内容

Python爬虫开发(二):整站爬虫与Web发掘

访客4年前 (2021-04-15)网络安全1155

在互联网这个杂乱的环境中,搜索引擎自身的爬虫,出于个人意图的爬虫,商业爬虫恣意横行,恣意掠取网上的或许公共或许私家的资源。明显数据的收集并不是随心所欲,有一些协议或许准则仍是需求每一个人留意。本文首要介绍关于爬虫的一些理论和约好协议,然后相对完好完结一个爬虫的基本功用。
0×01 协议
一般情况下网站的根目录下存在着一个robots.txt的文件,用于告知爬虫那些文件夹或许哪些文件是网站的具有者或许管理员不期望被搜索引擎和爬虫阅读的,或许是不期望被非人类的东西检查的。可是不仅仅如此,在这个文件中,有时候还会指明sitemap的方位,爬虫能够直接寻觅sitemap而不必吃力去爬取网站,制造自己的sitemap。那么最好咱们看个详细的比方吧,这样更有助于了解robots协议:
-----------------------以下时freebuf的robots.txt-------------
User-agent: *
Disallow: /*?*
Disallow: /trackback
Disallow: /wp-*/
Disallow: */comment-page-*
Disallow: /*?replytocom=*
Disallow: */trackback
Disallow: /?random
Disallow: */feed
Disallow: /*.css$
Disallow: /*.js$
Sitemap: http://www.freebuf.com/sitemap.txt
咱们能够看到,这儿指明晰适用的User-agent头,指明晰Disallow的目录,也指明晰sitemap,然后咱们在看一下sitemap中是什么:

咱们大致能够发现这些都是整个网站答应揭露的内容,假如这个爬虫作者是对freebuf的文章感爱好的话,大可不必自始至终规划爬虫算法拿下整个网站的sitemap,这样直接阅读sitemap节省了许多的时刻。
0×02 准则
假如协议不存在的话,咱们依然不能随心所欲,上网随意搜索一下源于爬虫协议的官司,国内外都有。爬虫的协议规矩建立在如下的基础上:
1.    搜索技能应该服务于人类,尊重信息供给者的志愿,并维护其隐私权;
2.    网站也有责任维护其运用者的个人信息和隐私不被侵略。
简略来说,便是构建的爬虫以信息收集为意图是没错的,可是不能侵略他人的隐私,比方你扫描而且进入了网站的robots中的disallow字段,你就可能触及侵略他人隐私的问题。当然作为一般人来讲,咱们运用爬虫技能无非是学习,或许是收集想要的信息,并没有想那么多的侵权,或许是商业的问题。
0×03 建立方针与剖析进程
这儿我供给一个爬虫诞生要阅历的一般进程:
1. 建立需求在,sitemap中挑选出需求发掘的页面;
2. 顺次剖析挑选出的页面;
3. 存储剖析成果。
可是有时候问题便是,咱们的方针网站没有供给sitemap,那么这就得费事咱们自己去获取自己定制的sitemap。
方针:制造一个网站的sitemap:
剖析:咱们要完结这个进程,可是不存在现成sitemap,笔者主张咱们把这个网站幻想成一个图的结构,网站的url之间犬牙交错,咱们能够经过主页面进行深度优先或许广度优先搜索然后遍历整个网站拿到sitemap。明显咱们发现,咱们首要要做的第一步便是完好的获取整个页面的url。
可是咱们首要得想清楚一个问题:咱们获取到的url是应该是要约束域名的,假如爬虫从方针网站跳走了,也就意味着将无限堕入整个网络进行发掘。这么巨大的数据量,我想不是一般人的电脑硬盘能够接受的吧!
那么咱们的第一步便是编写代码去获取整个页面的url。其实这个比方在上一篇文章中现已讲到过。
0×04 着手
咱们的第一个小方针便是获取当时页面一切的url:
首要有必要阐明的是,这个脚本并不具有普遍性(只针对freebuf.com),而且功率低下,能够优化的当地许多:仅仅为了便利,简略完成了功用,有爱好的朋友能够恣意重构到达高效高雅的意图
import urllib
from bs4 import BeautifulSoup
import re
 
def get_all_url(url):
   urls = []
   web = urllib.urlopen(url)
soup =BeautifulSoup(web.read())
#经过正则过滤合理的url(针对与freebuf.com来讲)
   tags_a =soup.findAll(name='a',attrs={'href':re.compile("^https?://")})
    try :
       for tag_a in tags_a:
           urls.append(tag_a['href'])
       #return urls
   except:
       pass
   return  urls
 
#得到一切freebuf.com下的url
def get_local_urls(url):
   local_urls = []
   urls = get_all_url(url)
   for _url in urls:
       ret = _url
       if 'freebuf.com' in ret.replace('//','').split('/')[0]:
           local_urls.append(_url)
   return  local_urls
 
#得到一切的不是freebuf.com域名的url
def get_remote_urls(url):
   remote_urls = []
   urls = get_all_url(url)
   for _url in urls:
       ret = _url
       if "freebuf.com" not in ret.replace('//','').split('/')[0]:
           remote_urls.append(_url)
   return  remote_urls
 
def __main__():
   url = 'http://freebuf.com/'
   rurls = get_remote_urls(url)
   print "--------------------remote urls-----------------------"

[1] [2] [3] [4] [5]  黑客接单网

扫描二维码推送至手机访问。

版权声明:本文由黑客接单发布,如需转载请注明出处。

本文链接:http://therlest.com/106653.html

分享给朋友:

“Python爬虫开发(二):整站爬虫与Web发掘” 的相关文章

【紧急+重要】勒索病毒解决方案!附:MS17-010补丁下载

  滚动更新:2017年5月13日16:57:22   游侠安全网(良心网站,站长先贴上注意事项和解决方法!防止你看本文的时候就被加密了!   1、本次共计是自动化攻击,利用了Windows的MS17-010。但苹果的MacOS用户不用得意,因为在昨晚之前,我这里得到的好几起勒索攻击案例都是针对...

福田小货车新车价格 「福田小卡之星3柴油版」

另一种是祥锐3360-490动力的。去二手车.发动机带涡轮增压方向助力国四3点.单排货厢3米7长,如果你不上高速,柴油车,刘巷有卖的,应该属于准新车,3W8-4W4左右。 福田时代小卡之星3全柴485」该车子才不到一年车龄,国四的价格要比这个贵1万多,不进市区的话,厢式货车贵5千元.国IV的轻卡价格...

宝钢价格行情最新报价,宝钢股份2021年10月钢材价格

宝钢钢材的价格:宝钢3Cr2W8V圆钢,故11、多家钢厂纷纷出台四季度价格调整方案,钢坯出口下降,月份钢材价格走势不容乐观。 要全面考虑下.关于2008年12月宝钢股份碳钢产品钢材价格国内期货销售价格调整的通知发布时间:2008-10-2014:03:06源自-宝钢股份,宝钢每月都公布下月的出厂价格...

Webshell安全检测篇(1)-根据流量的检测方法

一、概述 笔者一直在重视webshell的安全剖析,最近就这段时刻的心得体会和咱们做个共享。 webshell一般有三种检测办法: 依据流量方法 依据agent方法(本质是直接剖析webshell文件) 依据日志剖析方法 Webshell的分类笔者总结如下: 前段时...

老庙投资金条今日价格(老庙黄金多少一克)

鄙视知道管理员如需图片和核实,需谨慎黄金交易价格维持在236元左右,黄金首饰285元左右,回收2,老庙黄金08月,20克及以上290元/克,你好! 鄙视广告,投资黄金250元,铂金313元/克,请以官方价格为准。2日上海老庙黄金今日金价302元/克,建议索要发票看发票品名最近。 庙黄金今日价格,黄金...

黄埔燃料油现货价格_今日燃料油市场价格

这句话是指期货比现货价格高100元吗,柴油,1%的权重都没有,通过技术指标和消息面影响来分析的。有的有点差,点88 国际燃料油收盘价涨跌新加坡。244点5 国内燃料油,燃料油,作为成品油的一种,屈居第二位,有的高点有的低一点,2。97#汽油5点38元/价格升,在原油的加工过程中,常关注的消息为OPE...

评论列表

始于脸红1
3年前 (2022-07-05)

------------remote urls-----------------------"[1] [2] [3] [4] [5]  黑客接单网

青迟倦话
3年前 (2022-07-05)

过主页面进行深度优先或许广度优先搜索然后遍历整个网站拿到sitemap。明显咱们发现,咱们首要要做的第一步便是完好的获取整个页面的url。可是咱们首要得想清楚一个问题:咱们获取

孤央鹿鸢
3年前 (2022-07-05)

存在的话,咱们依然不能随心所欲,上网随意搜索一下源于爬虫协议的官司,国内外都有。爬虫的协议规矩建立在如下的基础上:1.    搜索技能应该服务于人类,尊重信息供给者的志愿,并维护其隐私

颜于闻枯
3年前 (2022-07-05)

rl(url):   urls = []   web = urllib.urlopen(url)soup =BeautifulSoup(web.read())#经过正则过滤合理的url(针对与freebuf.com来讲)   tags_a =soup.findAl

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。