资讯专栏INFORMATION COLUMN

使用Scrapy框架爬取网页并保存到Mysql

89542767 / 229人阅读

  小编写这篇文章的主要目的,主要是用来给大家做出一个解答,解答关于Scrapy框架的事情,主要是使用Scrapy框架,爬取网页,然后保存到一个专业数据库中,这个数据库就是Mysql,那么,其具体要怎么实现呢?下面就给大家详细的解答。


  大家好,这一期阿彬给大家分享Scrapy爬虫框架与本地Mysql的使用。今天阿彬爬取的网页是虎扑体育网。


  (1)打开虎扑体育网,分析一下网页的数据,使用xpath定位元素。

01.png

  (2)在第一部分析网页之后就开始创建一个scrapy爬虫工程,在终端执行以下命令:


  “scrapy startproject huty(注:‘hpty’是爬虫项目名称)”,得到了下图所示的工程包:

02.png

  (3)进入到“hpty/hpty/spiders”目录下创建一个爬虫文件叫‘“sww”,在终端执行以下命令:“scrapy genspider sww”(4)在前两步做好之后,对整个爬虫工程相关的爬虫文件进行编辑。1、setting文件的编辑:


  把君子协议原本是True改为False。

03.png

  再把这行原本被注释掉的代码把它打开。

04.png

  2、对item文件进行编辑,这个文件是用来定义数据类型,代码如下:


  #Define here the models for your scraped items
  #
  #See documentation in:
  #https://docs.scrapy.org/en/latest/topics/items.html
  import scrapy
  class HptyItem(scrapy.Item):
  #define the fields for your item here like:
  #name=scrapy.Field()
  球员=scrapy.Field()
  球队=scrapy.Field()
  排名=scrapy.Field()
  场均得分=scrapy.Field()
  命中率=scrapy.Field()
  三分命中率=scrapy.Field()
  罚球命中率=scrapy.Field()


  3、对最重要的爬虫文件进行编辑(即“hpty”文件),代码如下:


  import scrapy
  from..items import HptyItem
  class SwwSpider(scrapy.Spider):
  name='sww'
  allowed_domains=['https://nba.hupu.com/stats/players']
  start_urls=['https://nba.hupu.com/stats/players']
  def parse(self,response):
  whh=response.xpath('//tbody/tr[not(class)]')
  for i in whh:
  排名=i.xpath(
  './td[1]/text()').extract()#排名
  球员=i.xpath(
  './td[2]/a/text()').extract()#球员
  球队=i.xpath(
  './td[3]/a/text()').extract()#球队
  场均得分=i.xpath(
  './td[4]/text()').extract()#得分
  命中率=i.xpath(
  './td[6]/text()').extract()#命中率
  三分命中率=i.xpath(
  './td[8]/text()').extract()#三分命中率
  罚球命中率=i.xpath(
  './td[10]/text()').extract()#罚球命中率
  data=HptyItem(球员=球员,球队=球队,排名=排名,场均得分=场均得分,命中率=命中率,三分命中率=三分命中率,罚球命中率=罚球命中率)
  yield data


  4、对pipelines文件进行编辑,代码如下:


  #Define your item pipelines here
  #
  #Don't forget to add your pipeline to the ITEM_PIPELINES setting
  #See:https://docs.scrapy.org/en/latest/topics/item-pipeline.html
  #useful for handling different item types with a single interface
  from cursor import cursor
  from itemadapter import ItemAdapter
  import pymysql
  class HptyPipeline:
  def process_item(self,item,spider):
  db=pymysql.connect(host="Localhost",user="root",passwd="root",db="sww",charset="utf8")
  cursor=db.cursor()
  球员=item["球员"][0]
  球队=item["球队"][0]
  排名=item["排名"][0]
  场均得分=item["场均得分"][0]
  命中率=item["命中率"]
  三分命中率=item["三分命中率"][0]
  罚球命中率=item["罚球命中率"][0]
  #三分命中率=item["三分命中率"][0].strip('%')
  #罚球命中率=item["罚球命中率"][0].strip('%')
  cursor.execute(
  'INSERT INTO nba(球员,球队,排名,场均得分,命中率,三分命中率,罚球命中率)VALUES(%s,%s,%s,%s,%s,%s,%s)',
  (球员,球队,排名,场均得分,命中率,三分命中率,罚球命中率)
  )
  #对事务操作进行提交
  db.commit()
  #关闭游标
  cursor.close()
  db.close()
  return item


  (5)在scrapy框架设计好了之后,先到mysql创建一个名为“sww”的数据库,在该数据库下创建名为“nba”的数据表,代码如下:1、创建数据库

  create database sww;


  2、创建数据表

  create table nba(球员char(20),球队char(10),排名char(10),场均得分char(25),命中率char(20),三分命中率char(20),罚球命中率char(20));


  3、通过创建数据库和数据表可以看到该表的结构:

05.png

  (6)在mysql创建数据表之后,再次回到终端,输入如下命令:“scrapy crawl sww”,得到的结果


  到此为止,这篇文章就为大家解答完毕了,希望可以给大家带来更多的帮助。

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/128244.html

相关文章

  • 从零开始写爬虫

    摘要:几个朋友对爬虫很感兴趣,他们也都是开发人员,一个开发两个开发,都没有过项目开发经验,正好其中一个最近要爬一个网店的产品信息,所以希望我能拿这网站当写一个爬虫来给他们参考学习。我们就在这个文件里开发爬虫的相关逻辑。 几个朋友对爬虫很感兴趣,他们也都是开发人员,一个PHP开发两个JAVA开发,都没有过python项目开发经验,正好其中一个最近要爬一个网店的产品信息,所以希望我能拿这网站当d...

    wwq0327 评论0 收藏0
  • scrapy-redis分布式爬虫框架详解

    摘要:分布式爬虫框架详解随着互联网技术的发展与应用的普及,网络作为信息的载体,已经成为社会大众参与社会生活的一种重要信息渠道。下载器中间件位于引擎和下载器之间的框架,主要是处理引擎与下载器之间的请求及响应。 scrapy-redis分布式爬虫框架详解 随着互联网技术的发展与应用的普及,网络作为信息的载体,已经成为社会大众参与社会生活的一种重要信息渠道。由于互联网是开放的,每个人都可以在网络上...

    myeveryheart 评论0 收藏0
  • 爬虫入门

    摘要:通用网络爬虫通用网络爬虫又称全网爬虫,爬取对象从一些种子扩充到整个。为提高工作效率,通用网络爬虫会采取一定的爬取策略。介绍是一个国人编写的强大的网络爬虫系统并带有强大的。 爬虫 简单的说网络爬虫(Web crawler)也叫做网络铲(Web scraper)、网络蜘蛛(Web spider),其行为一般是先爬到对应的网页上,再把需要的信息铲下来。 分类 网络爬虫按照系统结构和实现技术,...

    defcon 评论0 收藏0
  • 爬虫入门

    摘要:通用网络爬虫通用网络爬虫又称全网爬虫,爬取对象从一些种子扩充到整个。为提高工作效率,通用网络爬虫会采取一定的爬取策略。介绍是一个国人编写的强大的网络爬虫系统并带有强大的。 爬虫 简单的说网络爬虫(Web crawler)也叫做网络铲(Web scraper)、网络蜘蛛(Web spider),其行为一般是先爬到对应的网页上,再把需要的信息铲下来。 分类 网络爬虫按照系统结构和实现技术,...

    Invoker 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<