做数据分析,首先要有大量的数据,通常会使用爬虫去采集同行的信息进行分析,挖掘有用的资料。但这些资料非常多,仅靠人工去收集,耗时非常久,有个偷懒的方法,即使用爬虫进行数据爬取。
网络爬虫
本质就是http请求,浏览器是用户主动操作然后完成HTTP请求,而爬虫需要自动完成http请求,网络爬虫需要一套整体架构完成工作。
1.URL管理
首先url管理器添加了新的url到待爬取集合中,判断了待添加的url是否在容器中、是否有待爬取的url,并且获取待爬取的url,将url从待爬取的url集合移动到已爬取的url集合。
2.页面下载
下载器将接收到的url传给互联网,互联网返回html文件给下载器,下载器将其保存到本地,一般的会对下载器做分布式部署,一个是提交效率,再一个是起到请求代理作用。
3.内容提取
页面解析器主要完成的是从获取的html网页字符串中取得有价值的感兴趣的数据和新的url列表。数据抽取比较常用的手段有基于css选择器、正则表达式、xpath的规则提取。一般提取完后还会对数据进行一定的清洗或自定义处理,从而将请求到的非结构数据转化为我们需要的结构化数据。
4.数据保存
数据保存到相关的数据库、队列、文件等方便做数据计算和与应用对接。
804
170
上一篇:怎么突破IP限制
下一篇:http代理ip怎么使用