摘要:起步在理论篇我们介绍了决策树的构建和一些关于熵的计算方法,这篇文章将根据一个例子,用代码上来实现决策树。转化文件至可视化决策树的命令得到一个文件,打开可以看到决策树附录本次应用的全部代码向量化向量化构造决策树保存模型测试数据
起步
在理论篇我们介绍了决策树的构建和一些关于熵的计算方法,这篇文章将根据一个例子,用代码上来实现决策树。
实验环境操作系统: win10 64
编程语言: Python3.6
用到的第三方模块有:
numpy (1.12.1+mkl) scikit-learn (0.19.1)数据源
为了方便理解和架设,我们用理论篇中买电脑的例子:
将这些记录保存成 csv 文件:
RID,age,income,student,credit_rating,class:buys_computer 1,youth,hight,no,fair,no 2,youth,hight,no,excellent,no 3,middle_aged,hight,no,fair,yes 4,senior,medium,no,fair,yes 5,senior,low,yes,fair,yes 6,senior,low,yes,excellent,no 7,middle_aged,low,yes,excellent,yes 8,youth,medium,no,fair,no 9,youth,low,yes,fair,yes 10,senior,medium,yes,fair,yes 11,youth,medium,yes,excellent,yes 12,middle_aged,medium,no,excellent,yes 13,middle_aged,hight,yes,fair,yes 14,senior,medium,no,excellent,no
这些数据就是这次应用的数据源。
数据整理可以利用python标准库中 csv 来对这个数据源进行读取,要对原始数据集进行整理,随机变量放在一个数组,分类结果放在另一个数组,形如:
future_list = [
{
"age" : "youth",
"income": "hight",
...
}
...
]
answer_list = ["no", "no", "yes", ...]
按照这个思路我们构造一下:
data_file = open("computer_buy.csv", "r")
reader = csv.reader(data_file)
headers = next(reader)
future_list = []
label_list = []
for row in reader:
label_list.append(row[-1])
row_dict = {}
for i in range(1, len(row) -1):
row_dict[ headers[i] ] = row[i]
future_list.append(row_dict)
data_file.close()
随机变量向量化
在 sklearn 提供的库中,对输入的特征有一定的要求,所有特征和分类都要是数值型的值,不能是例子中的类别的值。
怎么转化呢?
比方说 age 这个特征,它有三个值: youth , middle_aged , senior 。有一条记录的 age=youth 针对这个特征我们就变成:
| youth | middle_aged | senior |
|---|---|---|
| 1 | 0 | 0 |
那么第一条记录 youth,hight,no,fair 转化为:
| age=middle_aged | age=senior | age=youth | credit_rating=excellent | credit_rating=fair | income=hight | income=low | income=medium | student=no | student=yes |
|---|---|---|---|---|---|---|---|---|---|
| 0 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 1 | 0 |
from sklearn.feature_extraction import DictVectorizer
dummy_x = vec.fit_transform(future_list).toarray()
print("dummy_x:", dummy_x)
print("vec.get_feature_names()", vec.get_feature_names())
分类结果向量化
from sklearn import preprocessing lb = preprocessing.LabelBinarizer() dummy_y = lb.fit_transform(label_list)构造决策树
在 sklearn 中提供了多种决策树构建方法,这边需要向其表明,是依据 信息增益 的方式来构造决策树的,因此需要传入一个参数
criterion="entropy":
from sklearn import tree
# 构造决策树
clf = tree.DecisionTreeClassifier(criterion="entropy")
clf.fit(dummy_x, dummy_y)
print("clf: ", clf)
保存模型
将训练好的模型保存到文件里去:
# 保存模型
with open("result.dot", "w") as f:
tree.export_graphviz(clf, feature_names=vec.get_feature_names(), out_file=f)
测试数据
接下来就是给它随机变量,让决策树来进行分类。我们修改第一条记录来进行测试:
# 测试数据
first_row = dummy_x[0, :]
new_row = list(first_row)
new_row[0] = 1
new_row[2] = 0
predict = clf.predict([new_row])
print("predict:", predict) # output: [1]
模型可视化
可视化用到了 Graphviz 软件,可以到官网:http://www.graphviz.org/ 下载,我下载的是 zip 文件,解压后将目录加到环境变量中去。
转化 dot 文件至 pdf 可视化决策树的命令:
dot -Tpdf result.dot -o outpu.pdf
得到一个pdf文件,打开可以看到决策树:
附录本次应用的全部代码:
# coding: utf-8
import csv
from sklearn.feature_extraction import DictVectorizer
from sklearn import preprocessing
from sklearn import tree
data_file = open("computer_buy.csv", "r")
reader = csv.reader(data_file)
headers = next(reader)
future_list = []
label_list = []
for row in reader:
label_list.append(row[-1])
row_dict = {}
for i in range(1, len(row) -1):
row_dict[ headers[i] ] = row[i]
future_list.append(row_dict)
data_file.close()
# 向量化 x
vec = DictVectorizer()
dummy_x = vec.fit_transform(future_list).toarray()
print("dummy_x:", dummy_x)
print("vec.get_feature_names()", vec.get_feature_names())
# 向量化 y
lb = preprocessing.LabelBinarizer()
dummy_y = lb.fit_transform(label_list)
# 构造决策树
clf = tree.DecisionTreeClassifier(criterion="entropy")
clf.fit(dummy_x, dummy_y)
print("clf: ", clf)
# 保存模型
with open("result.dot", "w") as f:
tree.export_graphviz(clf, feature_names=vec.get_feature_names(), out_file=f)
# 测试数据
first_row = dummy_x[0, :]
new_row = list(first_row)
new_row[0] = 1
new_row[2] = 0
predict = clf.predict([new_row])
print("predict:", predict)
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/44524.html
摘要:后剪枝先创建完整的决策树,然后再尝试消除多余的节点,也就是采用减枝的方法。 起步 决策树(decision tree)是一个树结构,可以是二叉树或非二叉树,也可以把他看作是 if-else 规则的集合,也可以认为是在特征空间上的条件概率分布。 决策树的结构 以一个简单的用于是否买电脑预测的决策树为例子: showImg(https://segmentfault.com/img/remo...
摘要:翻译自昨天收到推送了一篇介绍随机森林算法的邮件,感觉作为介绍和入门不错,就顺手把它翻译一下。随机森林引入的随机森林算法将自动创建随机决策树群。回归随机森林也可以用于回归问题。结语随机森林相当起来非常容易。 翻译自:http://blog.yhat.com/posts/python-random-forest.html 昨天收到yhat推送了一篇介绍随机森林算法的邮件,感觉作为介绍和入门...
阅读 4052·2021-10-08 10:04
阅读 3086·2021-09-06 15:02
阅读 1160·2019-08-30 13:50
阅读 1804·2019-08-30 13:21
阅读 2770·2019-08-30 11:15
阅读 2374·2019-08-29 17:19
阅读 1804·2019-08-26 13:55
阅读 1415·2019-08-26 10:15