随机森林预测NBA篮球赛——数据爬取

Posted a-runner

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了随机森林预测NBA篮球赛——数据爬取相关的知识,希望对你有一定的参考价值。

  小编也是最近在学习数据挖掘,看到了第三章用决策树预测获胜的球队。然而,NBA官网早就改版了,Export不能全部下载一年的数据记录,只能按月,而且我也下载不了。想了想,就只能爬取了。话不多说。

  小编最开始用的Xpath,感觉路径有点麻烦,而且速度好像也没有BeautifulSoup快,所以小编就选用了pyquery和BeautifulSoup两个方法实现爬取数据。

  首先,先查看网站,看到每月的数据,对应的url与月份有关,因此定义函数用于获取每月的数据,输入变量为月份。

  下面的函数为pyquery的方法。

import requests
from pyquery import PyQuery as pq
from bs4 import BeautifulSoup
import csv

headers = {
    user-agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (Khtml, like Gecko) Chrome/79.0.3945.130 Safari/537.36
}
def get_data_pyquery(month):
    # 构造请求url
    url = https://www.basketball-reference.com/leagues/NBA_2014_games-{}.html.format(month)
    result = requests.get(url, headers=headers).text
    doc = pq(result)
    # 用于存储表头
    header = []
    # 解析html
    for thead in doc.find(thead tr th).items():
        text = thead.text()
        # 忽略空白符
        # print(text)
        if(len(text)>2):
            header.append(text)
    # 存储数据
    # print(header)
    data_all = []
    for tr in doc(tbody tr).items():
                data = []
                try:
                    data.append(tr.find(th).text())
                    for i in ([t.text() for t in tr(td).items()]):
              # 用于清除‘OT’不想关的数据
if i and not(OT in i): data.append(i) # print(data) data_all.append(data) # print(data_all) except: print(有点错误,已忽略) return header,data_all

  下面的为BeautifulSoup:

def get_data_bs4(month):
    url = https://www.basketball-reference.com/leagues/NBA_2014_games-{}.html.format(month)
    result = requests.get(url).text
    soup = BeautifulSoup(result,"lxml")
    data_all = []
    for i in range(len(soup.tbody.find_all("tr"))):
        data = []
        # 添加时间
        data.append(soup.tbody.find_all("tr")[i].find_all("th")[0].getText())
        for j in range(len(soup.find_all("tr")[i].find_all("td"))):
            data.append(soup.find_all("tr")[i].find_all("td")[j].getText())
        # 添加没次的数据
        data_all.append(data)
    # print(data_all)
    return data_all

  这种方法有待完善,爬取的数据不是很全,有纰漏。(小编懒,不改了)

小编着重 用pyquery的方法。

接下来上主函数:

def get_csv():
    i = 0
    a = 0
    months = [october,november,december,january,february,march,april,may,june]
    with open(NBA13_14.csv, w)as f:
        writer = csv.writer(f)
        for month in months:
            header,data = get_data_pyquery(month)
            if i == 0:
                writer.writerow(header)
                i += 1
            writer.writerows(data)
            a += 1
            print("第{}个月份 写入完毕".format(a))

    print("NBA 2012-2014 共{}月份的数据写入完毕!!".format(str(i)))

  输出结果:技术图片

 

  上述代码得到csv格式,注意:

  在4月份的数据中,有一行不符合规则: 

  小编用的try,except,直接忽略错误,但同时Playoffs也写入到了文件中。

   Playoffs,在得到的csv表格中,删除即可。

技术图片

 

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

  下面获取上一个赛季的比赛记录,这里的代码需要重新写:

  一开始,小编还是按照网址:view-source:https://www.basketball-reference.com/leagues/NBA_2013_standings.html

  右击检查,查找对应的源代码,如果直接查看网页源代码的化,确实可以看到对应的代码。于是小编就按照看到的写,最后发现数据对不上。

  小编查看对应的源代码,发现:技术图片

  小编发现,想爬取的数据都在 注释里面。那想必是网页在加载的过程中有JS的动态渲染。这是小编想用selenium或这splash访问,结果都是TimeOuts,出现延迟。

这是,Embed this Table。弹出来了JS代码的一个链接。发现里面的网址对应代码有想要的数据。与原来的对比了一下,HTML结构一致,那么就可以进行爬取了。

  下面直接上代码,小编用的Beautifulsoup,当然pyquery也可以,感兴趣的可以自己试一下。

from bs4 import BeautifulSoup
import requests
import csv

headers = {
    user-agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36
}

def get_data_bs4(url):
    html = requests.get(url).text
    soup = BeautifulSoup(html, lxml)
    # 要插入的数据
    data_all = []
    header = []
    tr = soup.find_all(name=tr)[1]
    for th in tr.find_all(name=th):
        header.append(th.string)
    # print(header)
    data_all.append(header)
    # 下面来获取数据
    tbody = soup.find(name=tbody)
    for tr in tbody.find_all(name=tr):
        data = []
        data.append(tr.th.string)
        for td in tr.find_all(name=td):
            data.append(td.string)
        data_all.append(data)
    return data_all


def get_csv(data_all):
    with open(NBA12-13.csv, w) as f:
        writer = csv.writer(f)
        for i, data in enumerate(data_all):
            writer.writerow(data)
            print("第 {} 名数据下载完毕".format(i + 1))
        print("文件下载完毕")




if __name__ == __main__:
    url = https://widgets.sports-reference.com/wg.fcgi?css=1&site=bbr&url=%2Fleagues%2FNBA_2013_standings.html&div=div_expanded_standings
    data = get_data_bs4(url)
    get_csv(data)

 

  完毕!!!!!

 

以上是关于随机森林预测NBA篮球赛——数据爬取的主要内容,如果未能解决你的问题,请参考以下文章

ML之shap:基于FIFA 2018 Statistics(2018年俄罗斯世界杯足球赛)球队比赛之星分类预测数据集利用RF随机森林+计算SHAP值单样本力图/依赖关系贡献图可视化实现可解释性之攻略

ML之PDP:基于FIFA 2018 Statistics(2018年俄罗斯世界杯足球赛)球队比赛之星分类预测数据集利用DT决策树&RF随机森林+PDP部分依赖图可视化实现模型可解释性之详细攻

朋友很喜欢打篮球,我用Python爬取了1000张他喜欢的NBA球星图片

国足晋级12强 | 爬取《NBA30支球队》“现役球员信息”,再来看看篮球吧!

国足晋级12强 | 爬取《NBA30支球队》“现役球员信息”,再来看看篮球吧!

朋友很喜欢打篮球,我用Python爬取了1000张他喜欢的NBA球星图片送给他内附源码