资讯专栏INFORMATION COLUMN

python爬虫——爬取小说 | 探索白子画和花千骨的爱恨情仇

newsning / 3003人阅读

摘要:先打开花千骨小说的目录页,是这样的。网页结构分析首先,目录页左上角有几个可以提高你此次爬虫成功后成就感的字眼暂不提供花千骨全集下载。打开盘查看花千骨文件。


知识就像碎布,记得“缝一缝”,你才能华丽丽地亮相。


1.Beautiful Soup 1.Beautifulsoup 简介

此次实战从网上爬取小说,需要使用到Beautiful Soup。
Beautiful Soup为python的第三方库,可以帮助我们从网页抓取数据。
它主要有如下特点:

1.Beautiful Soup可以从一个HTML或者XML提取数据,它包含了简单的处理、遍历、搜索文档树、修改网页元素等功能。可以通过很简短地代码完成我们地爬虫程序。

2.Beautiful Soup几乎不用考虑编码问题。一般情况下,它可以将输入文档转换为unicode编码,并且以utf-8编码方式输出,

2.Beautiful Soup安装

win命令行下:

pip install beautifusoup4
3.Beautiful Soup基础

大家可以参考文档来学习(中文版的哦):

[http://beautifulsoup.readthedocs.io/zh_CN/latest/#id8]

对于本次爬虫任务,只要了解以下几点基础内容就可以完成:
1.Beautiful Soup的对象种类:

Tag

Navigablestring

BeautifulSoup

Comment

2.遍历文档树:find、find_all、find_next和children
3.一点点HTML和CSS知识(没有也将就,现学就可以)

2.爬取小说花千骨 1.爬虫思路分析

本次爬取小说的网站为136书屋。
先打开花千骨小说的目录页,是这样的。

我们的目的是找到每个目录对应的url,并且爬取其中地正文内容,然后放在本地文件中。

2.网页结构分析

首先,目录页左上角有几个可以提高你此次爬虫成功后成就感的字眼:暂不提供花千骨txt全集下载。
继续往下看,发现是最新章节板块,然后便是全书的所有目录。我们分析的对象便是全书所有目录。点开其中一个目录,我们便可以都看到正文内容。

按F12打开审查元素菜单。可以看到网页前端的内容都包含在这里。

我们的目的是要找到所有目录的对应链接地址,爬取每个地址中的文本内容。
有耐心的朋友可以在里面找到对应的章节目录内容。有一个简便方法是点击审查元素中左上角箭头标志的按钮,然后选中相应元素,对应的位置就会加深显示。

这样我们可以看到,每一章的链接地址都是有规则地存放在

  • 中。而这些
  • 又放在
    中。

    我不停地强调“我们的目的”是要告诉大家,思路很重要。爬虫不是约pao,蒙头就上不可取。

    3.单章节爬虫

    刚才已经分析过网页结构。我们可以直接在浏览器中打开对应章节的链接地址,然后将文本内容提取出来。

    我们要爬取的内容全都包含在这个

    里面。
    代码整理如下:

    from urllib import request
    from bs4 import BeautifulSoup
    
    if __name__ == "__main__":
        # 第8章的网址
        url = "http://www.136book.com/huaqiangu/ebxeew/"
        head = {}
        # 使用代理
        head["User-Agent"] = "Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19"
        req = request.Request(url, headers = head)
        response = request.urlopen(req)
        html = response.read()
        # 创建request对象
        soup = BeautifulSoup(html, "lxml")
        # 找出div中的内容
        soup_text = soup.find("div", id = "content")
        # 输出其中的文本
        print(soup_text.text)
        
    

    运行结果如下:

    这样,单章节内容爬取就大功告成了。

    4.小说全集爬虫

    单章节爬虫我们可以直接打开对应的章节地址解析其中的文本,全集爬虫我们不可能让爬虫程序在每章节网页内中跑一遍,如此还不如复制、粘贴来的快。
    我们的思路是先在目录页中爬取所有章节的链接地址,然后再爬取每个链接对应的网页中的文本内容。说来,就是比单章节爬虫多一次解析过程,需要用到Beautiful Soup遍历文档树的内容。

    1.解析目录页

    在思路分析中,我们已经了解了目录页的结构。所有的内容都放在一个

    中。

    这儿有两个一模一样的


    第一个
    包含着最近更新的章节,第二个
    包含着全集内容。
    请注意,我们要爬取的是第二个
    中的内容。
    代码整理如下:

    from urllib import request
    from bs4 import BeautifulSoup
    
    if __name__ == "__main__":
        # 目录页
        url = "http://www.136book.com/huaqiangu/"
        head = {}
        head["User-Agent"] = "Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19"
        req = request.Request(url, headers = head)
        response = request.urlopen(req)
        html = response.read()
        # 解析目录页
        soup = BeautifulSoup(html, "lxml")
        # find_next找到第二个
    soup_texts = soup.find("div", id = "book_detail", class_= "box1").find_next("div") # 遍历ol的子节点,打印出章节标题和对应的链接地址 for link in soup_texts.ol.children: if link != " ": print(link.text + ": ", link.a.get("href"))

    执行结果如图:

    2.爬取全集内容

    将每个解析出来的链接循环代入到url中解析出来,并将其中的文本爬取出来,并且写到本地F:/huaqiangu.txt中。
    代码整理如下:

    from urllib import request
    from bs4 import BeautifulSoup
    
    if __name__ == "__main__":
        url = "http://www.136book.com/huaqiangu/"
        head = {}
        head["User-Agent"] = "Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166  Safari/535.19"
        req = request.Request(url, headers = head)
        response = request.urlopen(req)
        html = response.read()
        soup = BeautifulSoup(html, "lxml")
        soup_texts = soup.find("div", id = "book_detail", class_= "box1").find_next("div")
        # 打开文件
        f = open("F:/huaqiangu.txt","w")
        # 循环解析链接地址
        for link in soup_texts.ol.children:
            if link != "
    ":
                download_url = link.a.get("href")
                download_req = request.Request(download_url, headers = head)
                download_response = request.urlopen(download_req)
                download_html = download_response.read()
                download_soup = BeautifulSoup(download_html, "lxml")
                download_soup_texts = download_soup.find("div", id = "content")
                # 抓取其中文本
                download_soup_texts = download_soup_texts.text
                # 写入章节标题
                f.write(link.text + "
    
    ")
                # 写入章节内容
                f.write(download_soup_texts)
                f.write("
    
    ")
        f.close()
        

    执行结果显示 [Finished in 32.3s] 。

    打开F盘查看花千骨文件。

    爬虫成功。备好纸巾,快快去感受尊上和小骨的虐恋吧。

    5.总结

    代码还有很多改进的地方。例如文本中包含广告的js代码可以去除,还可以加上爬虫进度显示等等。实现这些功能需要包含正则表达式和os模块知识,就不多说了,大家可以继续完善。


    码字辛苦,码代码费神,文字和代码同码更是艰辛无比。如果您觉得文章有那么一丢丢价值,请不要吝啬您的赞赏。

    文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

    转载请注明本文地址:https://www.ucloud.cn/yun/40746.html

    相关文章

    • Python3 爬虫 requests+BeautifulSoup4(BS4) 爬取小说网站数据

      摘要:刚学爬虫不久,迫不及待的找了一个网站练手,新笔趣阁一个小说网站。继续学习,有改进方案的欢迎提出来,一起交流。 刚学Python爬虫不久,迫不及待的找了一个网站练手,新笔趣阁:一个小说网站。 前提准备 安装Python以及必要的模块(requests,bs4),不了解requests和bs4的同学可以去官网看个大概之后再回来看教程 爬虫思路 刚开始写爬虫的小白都有一个疑问,进行到什么时候...

      taoszu 评论0 收藏0
    • Python3 爬虫 scrapy框架 爬取小说网站数据

      摘要:上次用写的爬虫速度很感人,今天打算用框架来实现,看看速度如何。 上次用requests写的爬虫速度很感人,今天打算用scrapy框架来实现,看看速度如何。 爬虫步骤 第一步,安装scrapy,执行一下命令 pip install Scrapy 第二步,创建项目,执行一下命令 scrapy startproject novel 第三步,编写spider文件,文件存放位置novel/spi...

      王陆宽 评论0 收藏0
    • 前端开发中的SEO

      摘要:它能够让用户了解到当前的位置,了解网站内容的组织方式。标记应该放在文本中间,即使用替代突兀的标记。表格标题季度销售额强调网页中的重要内容应该使用标记,避免使用标记对搜索引擎不友好。 什么是SEO SEO由英文Search Engine Optimization缩写而来, 中文意译为搜索引擎优化。SEO是指从自然搜索结果获得网站流量的技术和过程,是在了解搜索引擎自然排名机制的...

      LeexMuller 评论0 收藏0
    • prototype 与 __proto__ 的爱恨情仇

      摘要:原文经历了上次的的六道坎发现编故事有点上瘾,而且记忆效果也不错哈哈,今天继续唠叨一下与的爱恨情仇。它是万物的尽头,继承于虚无,为。接着由其衍生出第二神,另外一个,也就是。也估计是让人引起误解的源头。所以接下来的问题就更容易了,比如。 原文:https://blog.crimx.com/2017/0... 经历了上次的《JavaScript This 的六道坎》 发现编故事有点上瘾,而且...

      Render 评论0 收藏0
    • 23个Python爬虫开源项目代码,包含微信、淘宝、豆瓣、知乎、微博等

      摘要:今天为大家整理了个爬虫项目。地址新浪微博爬虫主要爬取新浪微博用户的个人信息微博信息粉丝和关注。代码获取新浪微博进行登录,可通过多账号登录来防止新浪的反扒。涵盖链家爬虫一文的全部代码,包括链家模拟登录代码。支持微博知乎豆瓣。 showImg(https://segmentfault.com/img/remote/1460000018452185?w=1000&h=667); 今天为大家整...

      jlanglang 评论0 收藏0

    发表评论

    0条评论

    最新活动
  • 阅读需要支付1元查看
    <