摘要:背景知识泰坦尼克号年月从英国南安普顿出发,途径法国,爱尔兰在美国大西洋碰触冰山沉没,一部分人幸免于难,一部分人没有生存,这个案例中就是要通过机器学习的算法来预测一下中人的生存状况。
背景知识:
泰坦尼克号1912年4月从英国南安普顿出发,途径法国,爱尔兰在美国大西洋碰触冰山沉没,一部分人幸免于难,一部分人没有生存,这个案例中就是要通过机器学习的算法来预测一下test.csv中418人的生存状况。案例详细内容可以访问网站:https://www.kaggle.com/c/titanic。通过这个案例你可以大致掌握一个机器学习的基本步骤,本文最后附上案例的源码。
一、提出问题首先我们从kaggle上下载了泰坦尼克号案例的train.csv和test.csv两个数据,这里我为大家已经下好,大家可以在百度网盘里下载,地址:链接:https://pan.baidu.com/s/1RV-U... 密码:zlkj。
二、理解数据首先导入数据,可以看到训练数据集train.csv中有891行,12列数据,而测试数据集中有418行,11列数据;缺少的这一列数据正是我们要预测的生存状况数据。
import numpy as np
import pandas as pd
#导入训练集
train = pd.read_csv("train.csv")
#导入测试集
test = pd.read_csv("test.csv")
#查看测试数据集合训练数据集的形状
# print("训练数据集:",train.shape)
# print("测试数据集:",test.shape)
full = train.append(test,ignore_index=True)
# print("合并后的数据集:",full.shape)
# print(full.head(10))
通过实验结果我们可以知道,每一名乘客都对应着一个12维数据,其含义是:
1.Age:乘客年龄 2.Cabin:乘客船舱座位号 3.Embarked:乘客登船的港口,有三个可选值:S:南安普顿,C:法国瑟堡 Q:爱尔兰昆士敦 4.Fare:船票费用 5.Name:乘客姓名 6.parch:乘客的父母与子女数量 7.PassengerId:乘客ID 8.Pclass:乘客所在的船舱等级,1;一等,2;二等;3:三等 9.sex:乘客性别 10.SibSp:乘客的兄弟姐妹以及配偶数量 11.Survived:乘客是否存活标志;1:活着的 0:死亡 12.Ticket:票的编号
总数据有1309行,Age、Cabin、Embarked、Fare这四列数据中有缺失的情况,接下来的第三步就是要清洗数据,填补缺失值。
三、清洗数据首先处理一下缺失的数据,如果缺失的数据是数字类型的,可以用平均数代替,如果是字符串类型的,可以用出现最多的数(众数)来替代。
# 填充年龄缺失值
full.Age = full.Age.fillna(full.Age.mean())
# 填充船票价格缺失值
full.Fare = full.Fare.fillna(full.Fare.mean())
# #填充登船的港口,因为最多的为s,故将所有的缺失值填充为S
full.Embarked = full.Embarked.fillna("S")
# 由于船票号这一栏缺失值过多,故将其填充为U
full.Cabin = full.Cabin.fillna("U")
在做好这一步之后,数据还需要对一些列的字符串数据类型进行编码,比如Sex性别的分类数据,需要进行one-hot编码,方便机器学习识别。这里需要对性别、港口和姓名、船舱等级这些分类数据,进行重新编码。应用map函数可以对一列数据做同一个操作:
sexDict = {"male":1,"female":0}
sex = full.Sex.map(sexDict)
print(sex.head())
登船的港口有三个,分别是英国南安普顿、法国瑟堡、爱尔兰昆士敦,分别用首字母S、C、Q表示。
embarked = pd.DataFrame() embarked = pd.get_dummies(full.Embarked,prefix="Embarked") print(embarked.head()) #对船舱等级采取同样的方法 pclass = pd.DataFrame() pclass = pd.get_dummies(full.Pclass,prefix="Pclass") print(pclass.head())
接下来我们看一下名字这一列的数据字符串格式:名,头衔,姓,我们需要从名字里面获取头衔来判定是否对生存情况的影响。通过定义一个函数:
第一步获取name1剔除名字中逗号前面的名,
第二步剔除名字中冒号后面的姓,
第三步用strip函数剔除字符串头尾指定的字符(默认为空格)然后返回中间的头衔。
第四步应用函数,用一个表格型数据Df存放提取后的头衔,
第五步讲姓名中的头衔字符串与定义头衔类别的映射关系,再把头衔进行one-hot编码,
def title1(name):
name1 = name.split(",")[1]
name2 = name1.split(".")[0]
#使用strip函数提出姓名列的头尾,获得头衔
name3 = name2.strip()
return name3
titleDf = pd.DataFrame()
titleDf["Title"] = full.Name.map(title1)
titleDict = {
"Capt":"officer",
"Col":"officer",
"Major":"officer",
"Dr":"officer",
"Rev":"officer",
"Jonkheer":"Royalty",
"Don":"Royalty",
"Sir":"Royalty",
"the Countess":"Royalty",
"Dona":"Royalty",
"Lady":"Royalty",
"Mlle":"Miss",
"Miss":"Miss",
"Mr":"Mr",
"Mme":"Mrs",
"Ms":"Mrs",
"Mrs":"Mrs",
"Master":"Master"
}
titleDf["Title"] = titleDf["Title"].map(titleDict)
titleDf = pd.get_dummies(titleDf["Title"])
print(titleDf.head())
接着从座位号提取坐席类别,用seat存放客舱号的信息坐席类别就是座位号的首字母,比如C85,类别映射为首字母C,用U代表不知道的数据。使用lambda匿名函数提取Cabin中的首字母:
seat = pd.DataFrame() seat["seat"] = full["Cabin"] seat.seat = seat.seat.map(lambda a:a[0]) #使用one-hot编码 seat = pd.get_dummies(seat.seat,prefix="Cabin") #print(seat.head())
对船上每一个乘客的家庭成员数量进行一个统计。分别将原始数据中的SibSp列和Parch中的数据相加,再加上被统计者自身。
#对船上每一个乘客的家庭成员数量进行一个统计 family = pd.DataFrame() family["family"] = full.SibSp + full.Parch + 1 #print(family.head())
最后就是将原始数据复制一份,删除我们刚刚对其中重新编码的列(Cabin、Name、Sex、Pclass、Embarked、Parch、SibSp;还有票的编号Ticket这一列没有关系的数据。
最后合并的列包括了刚刚处理产生的新列名比如:da、family、seat、titleDf、pclass、embarked、sex。我们发现新的数据da有1309行,27列。
删除我们刚刚对其中重新编码的列(Cabin、Name、Sex、Pclass、Embarked、Parch、SibSp; 还有票的编号Ticket这一列没有关系的数据.最后合并的列包括了刚刚处理产生的新列名比如:da、family、seat、titleDf、pclass、embarked、sex.我们发现新的数据da有1309行,27列
da = train.append(test,ignore_index=True)
#采取同样的方式填充缺失值
da.Age = da.Age.fillna(da.Age.mean())
da.Fare = da.Fare.fillna(da.Fare.mean())
da.Embarked = da.Embarked.fillna("S")
da.Cabin = da.Cabin.fillna("U")
#提出不需要的列
da = da.drop(["Name","Pclass","Cabin","Parch","Embarked","SibSp","Ticket","Sex"],axis=1)
#合并修改后的列
da = pd.concat([titleDf,seat,family,pclass,embarked,da,sex],axis=1)
#print(da.shape)
#print(da.head())
四、模型建立与评估
第一步:用数据框corr()得到相关系数矩阵,
第二步:讲相关系数矩阵的生存情况的列提取出来,分别按照降序排列和升序排列
#使用数据框corr获取相关系数矩阵,将相关系数提取出来,按照升序和降序排列 corrDf = da.corr() #print(corrDf["Survived"].sort_values(ascending=False)) #print(corrDf["Survived"].sort_values(ascending=True))
我们发现相关系数大于0的列中:头衔、客舱等级、船票价格、船舱号都与生存状况呈现正线性关系在相关系数小于0的列中:头衔、性别、客舱等级、客舱号与生存情况呈现负线性相关。这些特征其实与我们在数据清洗过程中处理的列非常相关,这里我们直接采用上一步最后形成的新数据da
第三步:我们在原始训练数据中有891行,选取特征和标签,然后对这个数据进行拆分训练集和测试集,#将原始数据集拆分为训练集合评估集
sourceRow = 891
source_X = da.loc[0:sourceRow-1,:]
source_X = source_X.drop(["Survived"],axis =1)
source_y =da.loc[0:sourceRow-1,"Survived"]
#拆分训练集和测试集
train_X,test_X,train_y,test_y = train_test_split(source_X,source_y,train_size=0.8)
#输出数据集大小
# print("原始数据集特征:",source_X.shape)
# print("训练集特征:",train_X.shape)
# print("测试集特征:",test_X.shape)
# print("原始数据集标签:",source_y.shape)
# print("训练数据集标签:",train_y.shape)
# print("测试数据集标签:",test_y.shape)
第四步是导入算法,训练模型:
导入训练数据的特征train_X712条,包括性别,头衔等,导入标签train_y712条生存状况,得到正确率0.87:
#使用逻辑回归模型 model = LogisticRegression() #使用数据,训练模型 model.fit(train_X,train_y) # print(model.fit(train_X,train_y)) # print(model.score(test_X,test_y))第五步:方案实施
用机器学习模型,对预测数据集中的生存情况进行预测,这里用乘客的ID,数据框Df保存预测情况的值。
#方案实施,对预测数据集中的数据进行预测
predict_X = da.loc[sourceRow:,:]
predict_X = da.drop(["Survived"],axis=1)
pred_Y = model.predict(predict_X)
pred_Y = pred_Y.astype(int)
#乘客ID
passenger_id = da.loc[sourceRow,"PassengerId"]
predDf = pd.DataFrame({"PassengerId":passenger_id,"Survived":pred_Y})
print(predDf.shape)
print(predDf)
最后附上源码:链接:https://pan.baidu.com/s/1cb60... 密码:y12u。
有兴趣的可以在阅读本文点赞,欢迎评论哦!
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/41454.html
摘要:背景知识泰坦尼克号年月从英国南安普顿出发,途径法国,爱尔兰在美国大西洋碰触冰山沉没,一部分人幸免于难,一部分人没有生存,这个案例中就是要通过机器学习的算法来预测一下中人的生存状况。 背景知识: 泰坦尼克号1912年4月从英国南安普顿出发,途径法国,爱尔兰在美国大西洋碰触冰山沉没,一部分人幸免于难,一部分人没有生存,这个案例中就是要通过机器学习的算法来预测一下test.csv中418人的...
摘要:通用性一种新的基于数据类型的深度学习模型设计方法,使该工具可以跨许多不同的应用领域使用。可理解性深度学习模型内部通常被认为是黑匣子,但是该库提供标准的可视化来理解它们的性能并比较它们的预测。 昨日,Uber官网重磅宣布新开源深度学习框架Ludwig,不需要懂编程知识,让专家能用的更顺手,让非专业人士也可以玩转人工智能,堪称史上最简单的深度学习框架!Ludwig是一个建立在TensorFlow...
☀️苏州程序大白一文从基础手把手教你Python数据可视化大佬☀️《❤️记得收藏❤️》 目录 ?️?开讲啦!!!!?️?苏州程序大白?️??博主介绍前言数据关系可视化散点图 Scatter plots折线图强调连续性 Emphasizing continuity with line plots同时显示多了图表 数据种类的可视化 Plotting with categorical da...
阅读 1584·2021-09-22 15:43
阅读 2265·2019-08-30 15:54
阅读 1285·2019-08-30 10:51
阅读 2209·2019-08-29 18:35
阅读 530·2019-08-26 11:58
阅读 2596·2019-08-26 11:38
阅读 2552·2019-08-23 18:35
阅读 3839·2019-08-23 18:33