资讯专栏INFORMATION COLUMN

Python3网络爬虫实战---30、解析库的使用:PyQuery

IntMain / 3269人阅读

摘要:父节点我们可以用方法来获取某个节点的父节点,我们用一个实例来感受一下运行结果在这里我们首先用选取了为的节点,然后调用了方法,得到其父节点,类型依然是类型。

上一篇文章:Python3网络爬虫实战---29、解析库的使用:BeautifulSoup
下一篇文章:Python3网络爬虫实战---31、数据存储:文件存储

在上一节我们介绍了 BeautifulSoup 的使用,它是一个非常强大的网页解析库,可有没有觉得它的一些方法使用有点不适应?有没有觉得它的 CSS 选择器功能没有那么强大?

如果你对 Web 有所涉及,如果你比较喜欢用 CSS 选择器,如果你对 jQuery 有所了解,那么这里有一个更适合你的解析库—— PyQuery。

接下来我们就来感受一下 PyQuery 的强大之处。

1. 准备工作

在开始之前请确保已经正确安装好了 PyQuery,如没有安装可以参考第一章的安装过程。

2. 初始化

像 BeautifulSoup 一样,PyQuery 初始化的时候也需要传入 HTML 数据源来初始化一个操作对象,它的初始化方式有多种,比如直接传入字符串,传入 URL,传文件名。下面我们来详细介绍一下。

字符串初始化

首先我们用一个实例来感受一下:

html = """

"""
from pyquery import PyQuery as pq
doc = pq(html)
print(doc("li"))

运行结果:

  • first item
  • second item
  • third item
  • fourth item
  • fifth item
  • 在这里我们首先引入了 PyQuery 这个对象,取别名为 pq,然后声明了一个长 HTML 字符串,当作参数传递给 PyQuery,这样就成功完成了初始化,然后接下来将初始化的对象传入 CSS 选择器,在这个实例中我们传入 li 节点,这样就可以选择所有的 li 节点,打印输出可以看到所有的 li 节点的 HTML 文本。

    URL初始化

    初始化的参数不仅可以以字符串的形式传递,还可以传入网页的 URL,在这里只需要指定参数为 url 即可:

    from pyquery import PyQuery as pq
    doc = pq(url="http://www.segmentfault.com")
    print(doc("title"))

    运行结果:

    SegmentFault 思否

    这样的话 PyQuery 会首先请求这个 URL,然后用得到的 HTML 内容完成初始化,其实就相当于我们用网页的源代码以字符串的形式传递给 PyQuery 来初始化。

    它与下面的功能是相同的:

    from pyquery import PyQuery as pq
    import requests
    doc = pq(requests.get("http://www.segmentfault.com").text)
    print(doc("title"))
    文件初始化

    当然除了传递一个 URL,还可以传递本地的文件名,参数指定为 filename 即可:

    from pyquery import PyQuery as pq
    doc = pq(filename="demo.html")
    print(doc("li"))

    当然在这里需要有一个本地 HTML 文件 demo.html,内容是待解析的 HTML 字符串。这样它会首先读取本地的文件内容,然后用文件内容以字符串的形式传递给 PyQuery 来初始化。

    以上三种初始化方式均可,当然最常用的初始化方式还是以字符串形式传递。

    3. 基本CSS选择器

    我们首先用一个实例来感受一下 PyQuery 的 CSS 选择器的用法:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    print(doc("#container .list li"))
    print(type(doc("#container .list li")))

    运行结果:

  • first item
  • second item
  • third item
  • fourth item
  • fifth item
  • 在这里我们初始化 PyQuery 对象之后,传入了一个 CSS 选择器,#container .list li,意思是选取 id 为 container 的节点内部的 class 为 list 的节点内部的所有 li 节点。然后打印输出,可以看到成功获取到了符合条件的节点。

    然后我们将它的类型打印输出,可以看到它的类型依然是 PyQuery类型。

    4. 查找节点

    下面我们介绍一些常用的查询函数,这些函数和 jQuery 中的函数用法也完全相同。

    子节点

    查找子节点需要用到 find() 方法,传入的参数是 CSS 选择器,我们还是以上面的 HTML 为例:

    from pyquery import PyQuery as pq
    doc = pq(html)
    items = doc(".list")
    print(type(items))
    print(items)
    lis = items.find("li")
    print(type(lis))
    print(lis)

    运行结果:

    
    
    
    
  • first item
  • second item
  • third item
  • fourth item
  • fifth item
  • 首先我们选取了 class 为 list 的节点,然后我们调用了 find() 方法,传入了 CSS 选择器,选取其内部的 li 节点,最后都打印输出即可观察到对应的查询结果,可以发现 find() 方法会将符合条件的所有节点选择出来,结果的类型是 PyQuery 类型。

    其实 find() 的查找范围是节点的所有子孙节点,而如果我们只想查找子节点,那可以用 children() 方法:

    lis = items.children()
    print(type(lis))
    print(lis)

    运行结果:

    
    
  • first item
  • second item
  • third item
  • fourth item
  • fifth item
  • 如果要筛选所有子节点中符合条件的节点,比如我们想筛选出子节点中 class 为 active 的节点,可以向 children() 方法传入 CSS 选择器 .active:

    lis = items.children(".active")
    print(lis)

    运行结果:

  • third item
  • fourth item
  • 可以看到输出的结果已经做了筛选,留下了 class 为 active 的节点。

    父节点

    我们可以用 parent() 方法来获取某个节点的父节点,我们用一个实例来感受一下:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    items = doc(".list")
    container = items.parent()
    print(type(container))
    print(container)

    运行结果:

    
    

    在这里我们首先用 .list 选取了 class 为 list 的节点,然后调用了 parent() 方法,得到其父节点,类型依然是 PyQuery 类型。

    这里的父节点是该节点的直接父节点,也就是说,它不会再去查找父节点的父节点,即祖先节点。

    但是如果我们想获取某个祖先节点怎么办呢?可以用 parents() 方法:

    from pyquery import PyQuery as pq
    doc = pq(html)
    items = doc(".list")
    parents = items.parents()
    print(type(parents))
    print(parents)

    运行结果:

    
    
     

    在这里我们调用了 parents() 方法,可以看到输出结果有两个,一个是 class 为 wrap 的节点,一个是 id 为 container 的节点,也就是说,parents() 方法会返回所有的祖先节点。

    如果我们想要筛选某个祖先节点的话可以向 parents() 方法传入 CSS 选择器,这样就会返回祖先节点中符合 CSS 选择器的节点:

    parent = items.parents(".wrap")
    print(parent)

    运行结果:

    可以看到输出结果就少了一个节点,只保留了 class 为 wrap 的节点。

    兄弟节点

    在上面我们说明了子节点和父节点的用法,还有一种节点那就是兄弟节点,如果要获取兄弟节点可以使用 siblings() 方法。我们还是以上面的 HTML 代码为例来感受一下:

    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc(".list .item-0.active")
    print(li.siblings())

    在这里我们首先选择了 class 为 list 的节点内部的 class 为 item-0 和 active 的节点,也就是第三个 li 节点。那么很明显它的兄弟节点有四个,那就是第一、二、四、五个 li 节点。

    运行结果:

  • second item
  • first item
  • fourth item
  • fifth item
  • 可以看到运行结果也正是我们刚才所说的四个兄弟节点。

    如果要筛选某个兄弟节点,我们依然可以向方法传入 CSS 选择器,这样就会从所有兄弟节点中挑选出符合条件的节点了:

    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc(".list .item-0.active")
    print(li.siblings(".active"))

    在这里我们筛选了 class 为 active 的节点,通过刚才的结果我们可以观察到 class 为 active 的兄弟节点只有第四个 li 节点,所以结果应该是一个。

    运行结果:

  • fourth item
  • 5. 遍历

    我们刚才可以观察到,PyQuery 的选择结果可能是多个节点,可能是单个节点,类型都是 PyQuery 类型,并没有返回像 BeautifulSoup 一样的列表。

    对于单个节点来说,我们可以直接打印输出,也可直接转成字符串:

    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc(".item-0.active")
    print(li)
    print(str(li))

    运行结果:

  • third item
  • third item
  • 对于多个节点的结果,我们就需要遍历来获取了,例如这里我们把每一个 li 节点进行遍历,,需要调用 items() 方法:

    from pyquery import PyQuery as pq
    doc = pq(html)
    lis = doc("li").items()
    print(type(lis))
    for li in lis:
        print(li, type(li))

    运行结果:

    
    
  • first item
  • second item
  • third item
  • fourth item
  • fifth item
  • 在这里我们可以发现调用 items() 方法后,会得到一个生成器,遍历一下,就可以逐个得到 li 节点对象了,它的类型也是 PyQuery 类型,所以每个 li 节点还可以调用前面所说的方法进行选择,比如继续查询子节点,寻找某个祖先节点等等,非常灵活。

    6. 获取信息

    提取到节点之后,我们的最终目的当然是提取节点所包含的信息了,比较重要的信息有两类,一是获取属性,二是获取文本,下面我们分别进行说明。

    获取属性

    提取到某个 PyQuery 类型的节点之后,我们可以调用 attr() 方法来获取属性:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    a = doc(".item-0.active a")
    print(a, type(a))
    print(a.attr("href"))

    运行结果:

    third item 
    link3.html

    在这里我们首先选中了 class 为 item-0 和 active 的 li 节点内的 a 节点,它的类型可以看到是 PyQuery 类型。

    然后我们调用了 attr() 方法,然后传入属性的名称,就可以得到这个属性值了。

    也可以通过调用 attr 属性来获取属性,用法如下:

    print(a.attr.href)

    结果:

    link3.html

    结果是完全一样的,在这里我们没有调用方法,而是调用了 attr 属性,然后再调用属性名,同样可以得到属性值。

    如果我们选中的是多个元素,然后调用 attr() 方法会出现怎样的结果?我们用一个实例来测试一下:

    a = doc("a")
    print(a, type(a))
    print(a.attr("href"))
    print(a.attr.href)

    运行结果:

    second itemthird itemfourth itemfifth item 
    link2.html
    link2.html

    照理来说我们选中的 a 节点应该有四个,而且打印结果也是四个,但是当我们调用 attr() 方法时,返回的结果却只是第一个。

    所以当返回结果包含多个节点时,调用 attr() 方法只会得到第一个节点的属性。

    那么遇到这种情况如果我们想获取所有的 a 节点的属性,就需要用到上文所说的遍历了:

    from pyquery import PyQuery as pq
    doc = pq(html)
    a = doc("a")
    for item in a.items():
        print(item.attr("href"))

    运行结果:

    link2.html
    link3.html
    link4.html
    link5.html

    所以,在进行属性获取的时候观察一下返回节点是一个还是多个,如果是多个,则需要遍历才能依次获取每个节点的属性。

    获取文本

    获取节点之后的另一个主要的操作就是获取其内部的文本了,我们可以调用 text() 方法来获取:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    a = doc(".item-0.active a")
    print(a)
    print(a.text())

    运行结果:

    third item
    third item

    我们首先选中了一个 a 节点,然后调用了 text() 方法,就可以获取其内部的文本信息了,它会忽略掉节点内部包含的所有 HTML,只返回纯文字内容。

    但如果我们想要获取这个节点内部的 HTML 文本,就可以用 html() 方法:

    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc(".item-0.active")
    print(li)
    print(li.html())

    这里我们选中了第三个 li 节点,然后调用了 html() 方法,它返回的结果应该是li节点内的所有 HTML 文本。

    运行结果:

    third item

    这里同样有一个问题,如果我们选中的结果是多个节点,text() 或 html() 会返回什么内容?

    我们用一个实例来看一下:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc("li")
    print(li.html())
    print(li.text())
    print(type(li.text())

    运行结果:

    second item
    second item third item fourth item fifth item
    

    结果可能比较出乎意料,我们选中的是所有的 li 节点,可以发现 html() 方法返回的是第一个 li 节点的内部 HTML 文本,而 text() 则返回了所有的 li 节点内部纯文本,中间用一个空格分割开,实际上是一个字符串。

    所以这个地方值得注意,如果我们得到的结果是多个节点,如果要获取每个节点的内部 HTML 文本,则需要遍历每个节点,而 text() 方法不需要遍历就可以获取,它是将所有节点取文本之后合并成一个字符串。

    7. 节点操作

    PyQuery 提供了一系列方法来对节点进行动态修改操作,比如为某个节点添加一个 class,移除某个节点等等,这些操作有时候会为提取信息带来极大的便利。

    由于节点操作的方法太多,下面举几个典型的例子来说明它的用法。

    addClass、removeClass

    我们先用一个实例来感受一下:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc(".item-0.active")
    print(li)
    li.removeClass("active")
    print(li)
    li.addClass("active")
    print(li)

    首先我们选中了第三个 li 节点,然后调用了 removeClass() 方法,将 li 节点的 active 这个 class 移除,后来又调用了 addClass() 方法,又将 class 添加回来,每执行一次操作,就打印输出一下当前 li 节点的内容。

    运行结果:

  • third item
  • third item
  • third item
  • 可以看到一共进行了三次输出,第二次输出 li 节点的 active 这个 class 被移除了,第三次 class 又添加回来了。

    所以说我们 addClass()、removeClass() 这些方法可以动态地改变节点的 class 属性。

    attr、text、html

    当然除了操作 class 这个属性,也有 attr() 方法来专门针对属性进行操作,也可以用 text()、html() 方法来改变节点内部的内容。

    我们用实例感受一下:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc(".item-0.active")
    print(li)
    li.attr("name", "link")
    print(li)
    li.text("changed item")
    print(li)
    li.html("changed item")
    print(li)

    在这里我们首先选中了 li 节点,然后调用 attr() 方法来修改属性,第一个参数为属性名,第二个参数为属性值,然后我们调用了 text() 和 html() 方法来改变节点内部的内容。三次操作后分别又打印输出当前 li 节点。

    运行结果:

  • third item
  • third item
  • changed item
  • changed item
  • 可以发现,调用 attr() 方法后,li 节点多了一个原本不存在的属性 name,其值为 link,调用 text() 方法,传入文本之后,发现 li 节点内部的文本就全被改变为传入的字符串文本了。调用 html() 方法传入 HTML 文本之后,li 节点内部又改变为传入的 HTML 文本。

    所以说,attr() 方法如果只传入第一个参数属性名,则是获取这个属性值,如果传入第二个参数,可以用来修改属性值,text() 和 html() 方法如果不传参数是获取节点内纯文本和 HTML 文本,如果传入参数则是进行赋值。

    remove

    remove 顾名思义移除,remove() 方法有时会为信息的提取带来非常大的便利。下面我们看一个实例:

    html = """
    
    Hello, World

    This is a paragraph.

    """ from pyquery import PyQuery as pq doc = pq(html) wrap = doc(".wrap") print(wrap.text())

    在这里有一段 HTML 文本,我们现在想提取 Hello, World 这个字符串,而不要 p 节点内部的字符串,这个怎样来提取?

    在这里我们直接先尝试提取 class 为 wrap 的节点的内容,看看是不是我们想要的,运行结果如下:

    Hello, World This is a paragraph.

    然而这个结果还包含了内部的 p 节点的内容,也就是说 text() 把所有的纯文本全提取出来了。如果我们想去掉 p 节点内部的文本,可以选择再把 p 节点内的文本提取一遍,然后从整个结果中移除这个子串,但这个做法明显比较繁琐。

    那这是 remove() 方法就可以派上用场了,我们可以接着这么做:

    wrap.find("p").remove()
    print(wrap.text())

    我们首先选中了 p 节点,然后调用了 remove() 方法将其移除,然后这时 wrap 内部就只剩下 Hello, World 这句话了,然后再利用 text()方 法提取即可。

    所以说,remove() 方法可以删除某些冗余内容,来方便我们的提取。在适当的时候使用可以极大地提高效率。

    另外其实还有很多节点操作的方法,比如 append()、empty()、prepend() 等方法,他们和 jQuery 的用法是完全一致的,详细的用法可以参考官方文档:http://pyquery.readthedocs.io...

    8. 伪类选择器

    CSS 选择器之所以强大,还有一个很重要的原因就是它支持多种多样的伪类选择器。例如选择第一个节点、最后一个节点、奇偶数节点、包含某一文本的节点等等,我们用一个实例感受一下:

    html = """
    
    """
    from pyquery import PyQuery as pq
    doc = pq(html)
    li = doc("li:first-child")
    print(li)
    li = doc("li:last-child")
    print(li)
    li = doc("li:nth-child(2)")
    print(li)
    li = doc("li:gt(2)")
    print(li)
    li = doc("li:nth-child(2n)")
    print(li)
    li = doc("li:contains(second)")
    print(li)

    在这里我们使用了 CSS3 的伪类选择器,依次选择了第一个 li 节点、最后一个 li 节点、第二个 li 节点、第三个 li 之后的 li 节点、偶数位置的 li 节点、包含 second 文本的 li 节点,功能十分强大。

    更多的 CSS 选择器的用法可以参考:http://www.w3school.com.cn/cs...

    9. 结语

    到此为止 PyQuery 的常用用法就介绍完了,如果想查看更多的内容可以参考一下 PyQuery 的官方文档:http://pyquery.readthedocs.io,相信有了它,解析网页不再是难事。

    上一篇文章:Python3网络爬虫实战---29、解析库的使用:BeautifulSoup
    下一篇文章:Python3网络爬虫实战---31、数据存储:文件存储

    文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

    转载请注明本文地址:https://www.ucloud.cn/yun/44082.html

    相关文章

    • Python3网络爬虫实战---4、数据库的安装:MySQL、MongoDB、Redis

      摘要:运行结果如果运行结果一致则证明安装成功。上一篇文章网络爬虫实战请求库安装下一篇文章网络爬虫实战数据库的安装 上一篇文章:Python3网络爬虫实战---2、请求库安装:GeckoDriver、PhantomJS、Aiohttp下一篇文章:Python3网络爬虫实战---数据库的安装:MySQL、MongoDB、Redis 抓取下网页代码之后,下一步就是从网页中提取信息,提取信息的方式有...

      xbynet 评论0 收藏0
    • Python3网络爬虫实战---4、数据库的安装:MySQL、MongoDB、Redis

      摘要:的安装是一个轻量级的关系型数据库,以表的形式来存储数据,本节我们来了解下它的安装方式。相关链接官方网站下载地址中文教程下的安装推荐使用安装,执行命令即可。上一篇文章网络爬虫实战解析库的安装下一篇文章网络爬虫实战存储库的安装 上一篇文章:Python3网络爬虫实战---3、解析库的安装:LXML、BeautifulSoup、PyQuery、Tesserocr下一篇文章:Python3网络...

      winterdawn 评论0 收藏0
    • Python3网络爬虫实战---31、数据存储:文件存储

      摘要:如果该文件已存在,文件指针将会放在文件的结尾。运行结果以上是读取文件的方法。为了输出中文,我们还需要指定一个参数为,另外规定文件输出的编码。 上一篇文章:Python3网络爬虫实战---30、解析库的使用:PyQuery下一篇文章:Python3网络爬虫实战---32、数据存储:关系型数据库存储:MySQL 我们用解析器解析出数据之后,接下来的一步就是对数据进行存储了,保存的形式可以...

      dreamans 评论0 收藏0
    • Python3网络爬虫实战---2、请求库安装:GeckoDriver、PhantomJS、Aioh

      摘要:上一篇文章网络爬虫实战请求库安装下一篇文章网络爬虫实战解析库的安装的安装在上一节我们了解了的配置方法,配置完成之后我们便可以用来驱动浏览器来做相应网页的抓取。上一篇文章网络爬虫实战请求库安装下一篇文章网络爬虫实战解析库的安装 上一篇文章:Python3网络爬虫实战---1、请求库安装:Requests、Selenium、ChromeDriver下一篇文章:Python3网络爬虫实战--...

      Cristalven 评论0 收藏0
    • Python3网络爬虫实战---29、解析库的使用:BeautifulSoup

      摘要:解析器在解析的时候实际上是依赖于解析器的,它除了支持标准库中的解析器,还支持一些第三方的解析器比如,下面我们对支持的解析器及它们的一些优缺点做一个简单的对比。 上一篇文章:Python3网络爬虫实战---28、解析库的使用:XPath下一篇文章:Python3网络爬虫实战---30、解析库的使用:PyQuery 前面我们介绍了正则表达式的相关用法,但是一旦正则写的有问题,可能得到的就...

      MockingBird 评论0 收藏0

    发表评论

    0条评论

    最新活动
    阅读需要支付1元查看
    <