资讯专栏INFORMATION COLUMN

Python爬虫入门教程 9-100 河北阳光理政投诉板块

cppowboy / 1605人阅读

摘要:河北阳光理政投诉板块开始撸代码今天再次尝试使用一个新的模块,它可以配合快速解析文档,官网网站利用安装,如果安装失败,可以在搜索引擎多搜搜,内容很多,有解决方案。

1.河北阳光理政投诉板块-写在前面

之前几篇文章都是在写图片相关的爬虫,今天写个留言板爬出,为另一套数据分析案例的教程做做准备,作为一个河北人,遵纪守法,有事投诉是必备的技能,那么咱看看我们大河北人都因为什么投诉过呢?

今天要爬取的网站地址 http://yglz.tousu.hebnews.cn/l-1001-5-,一遍爬取一遍嘀咕,别因为爬这个网站在去喝茶,再次声明,学习目的,切勿把人家网站爬瘫痪了。

2.河北阳光理政投诉板块-开始撸代码

今天再次尝试使用一个新的模块 lxml ,它可以配合xpath快速解析HTML文档,官网网站 https://lxml.de/index.html
利用pip安装lxml,如果安装失败,可以在搜索引擎多搜搜,内容很多,100%有解决方案。

</>复制代码

  1. pip install lxml

废话不多说,直接通过requests模块获取百度首页,然后用lxml进行解析

</>复制代码

  1. import requests
  2. from lxml import etree # 从lxml中导入etree
  3. response = requests.get("http://www.baidu.com")
  4. html = response.content.decode("utf-8")
  5. tree=etree.HTML(html) # 解析html
  6. print(tree)

当你打印的内容为下图所示,你就接近成功了!

下面就是 配合xpath 语法获取网页元素了,关于xpath 这个你也可以自行去学习,非常简单,搜索一下全都是资料,咱就不讲了。

通过xpath我们进行下一步的操作,代码注释可以多看一下。

</>复制代码

  1. tree=etree.HTML(html) # 解析html
  2. hrefs = tree.xpath("//a") #通过xpath获取所有的a元素
  3. # 注意网页中有很多的a标签,所以获取到的是一个数组,那么我们需要用循环进行操作
  4. for href in hrefs:
  5. print(href)

打印结果如下

</>复制代码

在使用xpath配合lxml中,记住只要输出上述内容,就代表获取到东西了,当然这个不一定是你需要的,不过代码至少是没有错误的。

继续编写代码

</>复制代码

  1. # 注意网页中有很多的a标签,所以获取到的是一个数组,那么我们需要用循环进行操作
  2. for href in hrefs:
  3. print(href)
  4. print(href.get("href")) # 获取html元素属性
  5. print(href.text) # 获取a标签内部文字

输出结果

</>复制代码

  1. http://news.baidu.com
  2. 新闻
  3. http://www.hao123.com
  4. hao123
  5. http://map.baidu.com
  6. 地图
  7. http://v.baidu.com
  8. 视频
  9. http://tieba.baidu.com
  10. 贴吧

现在你已经看到,我们已经获取到了百度首页的所有a标签,并且获取到了a标签的href属性和a标签的文字。有这些内容,你就能很容易的去获取我们的目标网站了。

3.河北阳光理政投诉板块-爬取投诉数据

找到我们的目标网页,结果发现,出事情了,页面竟然是用aspx动态生成的,技术你就不需要研究了,总之,碰到了一个比较小的问题。

首先,点击下一页的时候,页面是局部刷新的

刷新的同时,捕获了一下发送的请求,是post方式,这个需要留意一下,最要紧的是下面第2张图片和第3张图片。

这张图片中的viewstate

这张图片也有一些奇怪的参数

这些参数都是典型的动态网页参数。

解决这个问题,还要从源头抓起!

打开我们要爬取的首页http://yglz.tousu.hebnews.cn/l-1001-5- 第1点需要确定,post的地址经过分析就是这个页面。

所以这段代码是必备的了,注意下面的post

</>复制代码

  1. response = requests.post("http://yglz.tousu.hebnews.cn/l-1001-5-")
  2. html = response.content.decode("utf-8")

右键查看源码之后,发现源码中有一些比较重要的隐藏域 里面获取就是我们要的必备信息

没错,这些内容,我们想办法获取到就可以了
基本步骤

获取源码

lxml通过xpath解析隐藏域,取值

</>复制代码

  1. import requests
  2. from lxml import etree # 从lxml中导入etree
  3. try:
  4. response = requests.post("http://yglz.tousu.hebnews.cn/l-1001-5-")
  5. html = response.content.decode("utf-8")
  6. except Exception as e:
  7. print(e)
  8. tree=etree.HTML(html) # 解析html
  9. hids = tree.xpath("//input[@type="hidden"]") # 获取隐藏域
  10. # 声明一个字典,用来存储后面的数据
  11. common_param = {}
  12. # 循环取值
  13. for ipt in hids:
  14. common_param.update({ipt.get("name"):ipt.get("value")}) # 这个地方可以分开写,应该会很清楚,我就不写了,总之,就是把上面获取到的隐藏域的name属性和value属性都获取到了

上面的代码写完之后,其实已经完成了,非常核心的内容了,后面就是继续爬取了
我们按照post要的参数补充完整其他的参数即可

</>复制代码

  1. import requests
  2. from lxml import etree # 从lxml中导入etree
  3. try:
  4. response = requests.post("http://yglz.tousu.hebnews.cn/l-1001-5-")
  5. html = response.content.decode("utf-8")
  6. except Exception as e:
  7. print(e)
  8. tree=etree.HTML(html) # 解析html
  9. hids = tree.xpath("//input[@type="hidden"]")
  10. common_param = {}
  11. for ipt in hids:
  12. common_param.update({ipt.get("name"):ipt.get("value")})
  13. ##############################################################
  14. for i in range(1,691):
  15. common_param.update({"__CALLBACKPARAM":f"Load|*|{i}", # 注意这个地方,由于我直接看到了总共有690页数据,所以直接写死了循环次数
  16. "__CALLBACKID": "__Page",
  17. "__EVENTTARGET":"",
  18. "__EVENTARGUMENT":""})

到这一步,就可以抓取真实的数据了,我在下面的代码中最关键的一些地方加上注释,希望你能看懂

</>复制代码

  1. for i in range(1,691):
  2. common_param.update({"__CALLBACKPARAM":f"Load|*|{i}",
  3. "__CALLBACKID": "__Page",
  4. "__EVENTTARGET":"",
  5. "__EVENTARGUMENT":""})
  6. response = requests.post("http://yglz.tousu.hebnews.cn/l-1001-5-",data=common_param,headers=headers)
  7. html = response.content.decode("utf-8")
  8. print("*"*200)
  9. tree = etree.HTML(html) # 解析html
  10. divs = tree.xpath("//div[@class="listcon"]") # 解析列表区域div
  11. for div in divs: # 循环这个区域
  12. try:
  13. # 注意下面是通过div去进行的xpath查找,同时加上try方式报错
  14. shouli = div.xpath("span[1]/p/a/text()")[0] # 受理单位
  15. type = div.xpath("span[2]/p/text()")[0].replace("
  16. ","") # 投诉类型
  17. content = div.xpath("span[3]/p/a/text()")[0] # 投诉内容
  18. datetime = div.xpath("span[4]/p/text()")[0].replace("
  19. ","") # 时间
  20. status = div.xpath("span[6]/p/text()")[0].replace("
  21. ","") # 时间
  22. one_data = {"shouli":shouli,
  23. "type":type,
  24. "content":content,
  25. "datetime":datetime,
  26. "status":status,
  27. }
  28. print(one_data) # 打印数据,方便存储到mongodb里面
  29. except Exception as e:
  30. print("内部数据报错")
  31. print(div)
  32. continue

代码完成,非常爽

最后抓取到了 13765 条数据,官方在我抓取的时候是13790,差了25条数据,没有大的影响~

数据我都存储在了 mongodb里面,关于这个如何使用,请去看我以前的代码吧~~~~

这些数据,放着以后做数据分析用了。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/19544.html

相关文章

  • Python爬虫入门教程 9-100 河北阳光理政投诉板块

    摘要:河北阳光理政投诉板块开始撸代码今天再次尝试使用一个新的模块,它可以配合快速解析文档,官网网站利用安装,如果安装失败,可以在搜索引擎多搜搜,内容很多,有解决方案。 1.河北阳光理政投诉板块-写在前面 之前几篇文章都是在写图片相关的爬虫,今天写个留言板爬出,为另一套数据分析案例的教程做做准备,作为一个河北人,遵纪守法,有事投诉是必备的技能,那么咱看看我们大河北人都因为什么投诉过呢? 今天要...

    _ipo 评论0 收藏0
  • Python爬虫入门教程 2-100 妹子图网站爬取

    摘要:为了写好爬虫,我们需要准备一个火狐浏览器,还需要准备抓包工具,抓包工具,我使用的是自带的,加上,这两款软件的安装和使用,建议你还是学习一下,后面我们应该会用到。 妹子图网站----前言 从今天开始就要撸起袖子,直接写Python爬虫了,学习语言最好的办法就是有目的的进行,所以,接下来我将用10+篇的博客,写爬图片这一件事情。希望可以做好。 为了写好爬虫,我们需要准备一个火狐浏览器,还需...

    zqhxuyuan 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<