概念:

爬虫通俗的解释是:向网站发起请求,获取资源后分析并提取有用数据的程序,爬虫程序主要功能是爬取网页、获得数据。

如果我们需要爬取网站以及系列网站,要求爬虫具备爬取失败能复盘、爬取速度较高等特点。

互联网好比是一张大的蜘蛛网,数据便是存放于蜘蛛网的各个节点,而爬虫程序像是一只小蜘蛛,它沿着网络抓取自己需要的内容。

从技术层面来说就是通过程序模拟浏览器请求站点的行为,把站点返回的HTML代码/JSON数据/二进制数据(图片、视频)

爬到本地,进而提取自己需要的数据,存放起来使用。

接下来,我们详细了解一下Python爬虫。

一、了解爬虫的基本原理及过程

大部分爬虫都是按“发送请求—获得页面—解析页面—抽取并储存内容”这样的流程来进行,这其实也是模拟了我们使用浏览器获取网页信息的过程。

简单来说,我们向服务器发送请求后,会得到返回的页面,通过解析页面之后,我们可以抽取我们想要的那部分信息,并存储在指定的文档或数据库中。

二、学习 Python 包并实现基本的爬虫过程

Python中爬虫相关的包很多:urllib、requests、bs4、scrapy、pyspider

等,大家都习用Python来写爬虫,从requests+Xpath 开始,requests 负责连接网站,返回网页。Xpath

用于解析网页,便于抽取数据。

分布式这个东西,听起来非常吓人,但其实就是利用多线程的原理让多个爬虫同时工作,只要掌握 Scrapy + MongoDB + Redis

这三种工具就可以轻松玩转。

如果有用过 BeautifulSoup的朋友,会发现 Xpath

要省事不少,一层一层检查元素代码的工作,全都省略了。掌握之后,你会发现爬虫的基本套路都差不多,一般的静态网站根本不在话下,豆瓣、糗事百科、腾讯新闻等基本上都可以上手了。

免责声明:内容和图片源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

更多推荐

python 爬虫是干嘛的_python为什么叫爬虫,爬虫能干什么?