资讯专栏INFORMATION COLUMN

[No.003-0]爬虫网易赔率数据并导入到mysql数据库

cikenerd / 2137人阅读

摘要:所以我不得不做的就是把每天的赔率数据导入到我自己的数据库,根据一定的运算法则,将可能性筛选出来,然后我再做进一步的判断。

    首先,我拥有这个导入赔率的需求,并且,我需要的是所有的数据赔率,我需要把某些脏赔率(极有可能不会出现的赔率,误导彩迷的赔率)删除,并且我需要知道这些赔率的比分,删除这些赔率,可以逆推正确比分以及赔率的区间。
    所以我不得不做的就是把每天的赔率数据导入到我自己的数据库,根据一定的运算法则,将可能性筛选出来,然后我再做进一步的判断。
#encoding:utf-8
import urllib2
from bs4 import BeautifulSoup

website = "http://caipiao.163.com/order/jczq-hunhe/#from=leftnav"
page = urllib2.urlopen(website)
soup = BeautifulSoup(page)
for incident in soup("td"):
    print incident
得到类似于以下的结果集:
负其他

120.00
0
14.00
1
5.20
2
3.55
3
3.50
4
4.70
5
7.50
6
13.00
7+
18.00
……

这里得到的结果,仅仅是赔率的结果,而且需要吧gametype的内容筛选出来,得到紧缺的,总进球 7球 18赔率的结果;

接下来

提取td中的内容,使用re正则来提取;
直接在for循环中使用re,避免使用文件作为缓存

#查询半全场的赔率
for item in soup.findAll("td",{"gametype":"bqc"}):
    print item.find("div").string
#查询表中的标签,并将内容筛选出来
#半全场赔率,依次为"胜胜","胜平","胜负","平胜","平平","平负","负胜","负平","负负"
for item in soup.findAll("td",{"gametype":"bqc"}):
     print item.find("div").string

#再查询比分赔率
#先是胜赔,1:0~胜其他,之后是平赔,0:0~3:3,平其他,并将其导入比分赔率bfpl
temp = ["1:0","2:0","2:1","3:0","3:1","3:2","4:0","4:1","4:2","5:0","5:1","5:2","胜其他","0:0","1:1","2:2","3:3","平其他","0:1","0:2","1:2","0:3","1:3","2:3","0:4","1:4","2:4","0:5","1:5","2:5","负其他"]
i = 1
bfpl = []
for item in soup.findAll("td",{"gametype":"bf"}):
    bfpl.append(item.find("div").string)

#---------------------
#构建比分赔率字典
i = 1
temp = ["1:0","2:0","2:1","3:0","3:1","3:2","4:0","4:1","4:2","5:0","5:1","5:2","胜其他","0:0","1:1","2:2","3:3","平其他","0:1","0:2","1:2","0:3","1:3","2:3","0:4","1:4","2:4","0:5","1:5","2:5","负其他"]
len



#再查询总进球赔率
for item in soup.findAll("td",{"gametype":"zjq"}):
     print item.find("div").string

#----------------------------------------
#查询所有的主队、客队名字数据以及场次数据
#主队hostTeam
i = 1
hostTeam = []
for item in soup.findAll("em",{"class":"hostTeam"}):
    hostTeam.append(item.b.string)
    i+=1

for item in hostTeam:
    print hostTeam[item]

#客队guestTeam
i = 1
guestTeam = []
for item in soup.findAll("em",{"class":"guestTeam"}):
    guestTeam.append(item.b.string)
    i+=1

for item in guestTeam:
    print guestTeam[item]

#------------------
#场次以及主队客队数据
#------------------
i = 1
for item in hostTeam:
    print "---------"
    print screening[i],hostTeam[i],guestTeam[i]
    i+=1

#-----------------------
#场次信息 jtip
i = 1
screening = []
for item in soup.findAll("span",{"class":"co1"}):
    screening.append(item.i.string)
    i+=1

#遍历场次数据
i=1
for item in screening:
    print screening[i]
    i+=1

#------------------
#做出场次+比分的list-->scbf[]
for item in screening:
    i=0
    while i           
               
                                           
                       
                 

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/37346.html

相关文章

  • [No.003-0]爬虫网易赔率数据导入mysql数据

    摘要:所以我不得不做的就是把每天的赔率数据导入到我自己的数据库,根据一定的运算法则,将可能性筛选出来,然后我再做进一步的判断。 首先,我拥有这个导入赔率的需求,并且,我需要的是所有的数据赔率,我需要把某些脏赔率(极有可能不会出现的赔率,误导彩迷的赔率)删除,并且我需要知道这些赔率的比分,删除这些赔率,可以逆推正确比分以及赔率的区间。 所以我不得不做的就是把每天的赔率数据导入到...

    stefanieliang 评论0 收藏0
  • [No.003-1]爬虫网易赔率数据导入mysql数据

    摘要:获取场次以及分数合集比如比分对应代码表对应对应胜其他对应平其他对应负其他因此场次和比分结合为,场次信息比分标题胜其他平其他负其他场次比分之后遍历得到结果集如场次为位数字,第一个为主场比分,中间为冒号,最后一个为客场比分平其他 #encoding:utf-8 import urllib2 from bs4 import BeautifulSoup website = http://ca...

    Warren 评论0 收藏0
  • [No.003-5]爬虫网易赔率数据导入mysql数据

    摘要:创建比赛结果数据库导入结果到导入到数据库中更新胜负数据插入更新胜场胜其他更新负场负其他更新平局平其他查看更新结果 创建比赛结果数据库 CREATE TABLE `results` ( `id` char(14) NOT NULL, `scr` char(3) NULL , `lea` char(100) NULL , `gmd` date NULL , `hos` char...

    ybak 评论0 收藏0
  • [No.003-3]爬虫网易赔率数据导入mysql数据库--MySQL

    摘要:创建数据库以及表,并导入数据创建数据库创建表胜分数比分平负导入数据导入到数据库中 创建数据库以及表,并导入数据 --创建数据库 CREATE DATABASE `data` DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci; --创建表 --win w 胜 0 分数 1 比分 --draw d 平 --lose l 负 C...

    ztyzz 评论0 收藏0
  • [No.003-4]爬虫网易赔率数据导入mysql数据

    摘要:收集比赛结果场次先获得包含和其他信息的队列赛事类型比赛日期删除无效的前个数据主队,客队胜平负赔率删除首尾两个无效数据比分结果以及比分结果赔率形成场次日期唯一装配结果集更新数据库内容更新胜平负胜其他平其他负其他更新总进球胜其 收集比赛结果 #encoding:utf-8 import sys import urllib2 import re from bs4 import Beauti...

    BlackHole1 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<