资讯专栏INFORMATION COLUMN

Python3网络爬虫实战---17、爬虫基本原理

hellowoody / 2165人阅读

摘要:在前面我们讲到了和的概念,我们向网站的服务器发送一个,返回的的便是网页源代码。渲染页面有时候我们在用或抓取网页时,得到的源代码实际和浏览器中看到的是不一样的。所以使用基本请求库得到的结果源代码可能跟浏览器中的页面源代码不太一样。

上一篇文章:Python3网络爬虫实战---16、Web网页基础
下一篇文章:Python3网络爬虫实战---18、Session和Cookies

爬虫,即网络爬虫,我们可以把互联网就比作一张大网,而爬虫便是在网上爬行的蜘蛛,我们可以把网的节点比做一个个网页,爬虫爬到这就相当于访问了该页面获取了其信息,节点间的连线可以比做网页与网页之间的链接关系,这样蜘蛛通过一个节点后可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,这样网站的数据就可以被抓取下来了。

1. 爬虫概述

可能上面的说明还是难以具体地描述爬虫究竟是个什么,简单来说,爬虫就是获取网页并提取和保存信息的自动化程序,接下来对各个点进行说明:

获取网页

爬虫首先要做的工作就是获取网页,在这里获取网页即获取网页的源代码,源代码里面必然包含了网页的部分有用的信息,所以只要把源代码获取下来了,就可以从中提取我们想要的信息了。

在前面我们讲到了 Request 和 Response 的概念,我们向网站的服务器发送一个 Request,返回的 Response 的 Body 便是网页源代码。所以最关键的部分就是构造一个 Request 并发送给服务器,然后接收到 Response 并将其解析出来,那这个流程可以怎样来实现呢?总不能手工去截取网页源码把?

不用担心,Python 里面提供了许多库来帮助我们实现这个操作,如 Urllib、Requests 等,我们可以用这些库来帮助我们实现 HTTP 请求操作,Request 和 Response 都可以用类库提供的数据结构来表示,得到 Response 之后只需要解析数据结构中的 Body 部分即可,即得到网页的源代码,这样我们可以用程序来实现获取网页的过程了。
提取信息

我们在第一步获取了网页源代码之后,接下来的工作就是分析网页源代码,从中提取我们想要的数据,首先最通用的方法便是采用正则表达式提取,这是一个万能的方法,但是在构造正则表达式的时候比较复杂且容易出错。

另外由于网页的结构是有一定规则的,所以还有一些根据网页节点属性、CSS 选择器或 XPath 来提取网页信息的库,如 BeautifulSoup、PyQuery、LXML 等,使用这些库可以高效快速地从中提取网页信息,如节点的属性、文本值等内容。

提取信息是爬虫非常重要的部分,它可以使杂乱的数据变得清晰条理,以便于我们后续在对数据进行处理和分析。

保存数据

提取信息之后我们一般会将提取到的数据保存到某处以便后续数据处理使用。保存形式有多种多样,如可以简单保存为 TXT 文本或 Json 文本,也可以保存到数据库,如 MySQL、MongoDB 等,也可保存至远程服务器,如借助 Sftp 进行操作等。

自动化程序

说到自动化程序,意思即是说爬虫可以代替人来完成这些操作。首先我们手工当然是可以提取这些信息的,但是当量特别大或者想快速获取大量数据的话,肯定还是借助于程序。所以爬虫就是代替我们来完成这份爬取数据的工作的自动化程序,它可以在抓取过程中进行各种异常处理、错误重试等操作,确保爬取持续高效地运行。

2. 能抓怎样的数据

在网页中我们能看到各种各样的信息,最常见的便是常规网页,其都对应着 HTML 代码,而最常见的抓取便是抓取 HTML 源代码。

另外可能有些网页返回的不是 HTML 代码,而是返回一个 Json 字符串,API 接口大多采用这样的形式,方便数据的传输和解析,这种数据同样可以抓取,而且数据提取更加方便。

此外我们还可以看到各种二进制数据,如图片、视频、音频等等,我们可以利用爬虫将它们的二进制数据抓取下来,然后保存成对应的文件名即可。

另外我们还可以看到各种扩展名的文件,如 CSS、JavaScript、配置文件等等,这些其实也是最普通的文件,只要在浏览器里面访问到,我们就可以将其抓取下来。

以上的内容其实都对应着各自的URL,是基于 HTTP 或 HTTPS 协议的,只要是这种数据爬虫都可以进行抓取。

3. JavaScript渲染页面

有时候我们在用 Urllib 或 Requests 抓取网页时,得到的源代码实际和浏览器中看到的是不一样的。

这个问题是一个非常常见的问题,现在网页越来越多地采用 Ajax、前端模块化工具来构建网页,整个网页可能都是由 JavaScript 渲染出来的,意思就是说原始的 HTML 代码就是一个空壳,例如:



    
        
        This is a Demo
    
    
        

body 节点里面只有一个 id 为 container 的节点,但是注意到在 body 节点后引入了一个 app.js,这个便负责了整个网站的渲染。

在浏览器打开这个页面时,首先会加载这个 HTML 内容,接着浏览器会发现其中里面引入了一个 app.js 文件,然后浏览器便会接着去请求这个文件,获取到该文件之后便会执行其中的 JavaScript 代码,而 JavaScript 则会改变 HTML 中的节点,向内添加内容,最后得到完整的页面。

但是在用 Urllib 或 Requests 等库来请求当前页面时,我们得到的只是这个 HTML 代码,它不会帮助我们去继续加载这个 JavaScript 文件,这样也就看不到浏览器中看到的内容了。

这也解释了为什么有时我们得到的源代码和浏览器中看到的是不一样的。

所以使用基本 HTTP 请求库得到的结果源代码可能跟浏览器中的页面源代码不太一样。对于这样的情况,我们可以分析其后台 Ajax 接口,也可使用 Selenium、Splash 这样的库来实现模拟 JavaScript 渲染,这样我们便可以爬取 JavaScript 渲染的网页的内容了。

在后文我们会详细介绍对于 JavaScript 渲染的网页的采集方法。

4. 结语

本节介绍了爬虫的一些基本原理,了解了如上内容可以帮助我们在后面编写爬虫的时候更加得心应手。

上一篇文章:Python3网络爬虫实战---16、Web网页基础
下一篇文章:Python3网络爬虫实战---18、Session和Cookies

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/44051.html

相关文章

  • Python3网络爬虫实战---18、Session和Cookies

    摘要:而在中对象用来存储特定用户会话所需的属性及配置信息。当会话过期或被放弃后,服务器将终止该会话。,即该是否仅被使用安全协议传输。安全协议有,等,在网络上传输数据之前先将数据加密。 上一篇文章:Python3网络爬虫实战---17、爬虫基本原理下一篇文章:Python3网络爬虫实战---19、代理基本原理 在浏览网站的过程中我们经常会遇到需要登录的情况,有些页面只有登录之后我们才可以访问...

    SHERlocked93 评论0 收藏0
  • Python3网络爬虫实战---16、Web网页基础

    摘要:,简称为,是一种脚本语言,和配合使用,提供给用户的只是一种静态的信息,缺少交互性。这就是网页的三大基本组成。父节点拥有子节点,同级的子节点被称为兄弟节点。选择属于其父节点的首个节点的每个节点。同上,从最后一个 上一篇文章:Python3网络爬虫实战---15、爬虫基础:HTTP基本原理下一篇文章:Python3网络爬虫实战---17、爬虫基本原理 我们平时用浏览器访问网站的时候,一个...

    netScorpion 评论0 收藏0
  • Python3网络爬虫实战---19、代理基本原理

    摘要:所以使用代理隐藏真实的,让服务器误以为是代理服务器的在请求自己。参考来源由于涉及到一些专业名词知识,本节的部分内容参考来源如下代理服务器维基百科代理百度百科上一篇文章网络爬虫实战和下一篇文章网络爬虫实战使用发送请求 上一篇文章:Python3网络爬虫实战---18、Session和Cookies下一篇文章:Python3网络爬虫实战---20、使用Urllib:发送请求 我们在做爬虫...

    gougoujiang 评论0 收藏0
  • Python3网络爬虫实战---14、部署相关库的安装:Scrapyrt、Gerapy

    摘要:相关链接官方文档安装推荐使用安装,命令如下命令执行完毕之后即可完成安装。的安装是一个分布式管理模块,本节来介绍一下的安装方式。如果没有错误报出,则证明库已经安装好了。上一篇文章网络爬虫实战部署相关库下一篇文章网络爬虫实战爬虫基础基本原理 上一篇文章:Python3网络爬虫实战---13、部署相关库ScrapydClient、ScrapydAPI下一篇文章:Python3网络爬虫实战--...

    nihao 评论0 收藏0
  • Python3网络爬虫实战---10、爬虫框架的安装:PySpider、Scrapy

    摘要:所以如果对爬虫有一定基础,上手框架是一种好的选择。缺少包,使用安装即可缺少包,使用安装即可上一篇文章网络爬虫实战爬取相关库的安装的安装下一篇文章网络爬虫实战爬虫框架的安装 上一篇文章:Python3网络爬虫实战---9、APP爬取相关库的安装:Appium的安装下一篇文章:Python3网络爬虫实战---11、爬虫框架的安装:ScrapySplash、ScrapyRedis 我们直接...

    张宪坤 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<