资讯专栏INFORMATION COLUMN

机器学习 | 树回归

CODING / 374人阅读

摘要:由于近期学业繁重,所以我就不说废话了,直接上代码运行结果代码使用二元切分法每次将数据集切成两份如果数据的某特征值等于切分所要求的值,那么这些数据就进入树的左子树,反之则进入右子树将每行映射成浮点数将文件中的所有数据都保存在同一个矩阵中参数数

由于近期学业繁重QAQ,所以我就不说废话了,直接上代码~

运行结果

代码
from numpy import *
#使用二元切分法——每次将数据集切成两份
#如果数据的某特征值等于切分所要求的值,
#那么这些数据就进入树的左子树,反之则
# 进入右子树
def loadDataSet(fileName):
    dataMat=[]
    fr=open(fileName)
    for line in fr.readlines():
        curLine=line.strip().split("	")
        #将每行映射成浮点数
        fltLine=list(map(float,curLine))
        dataMat.append(fltLine)
    #将文件中的所有数据都保存在同一个矩阵中
    return dataMat


#参数:数据集,待切分的特征,该特征的某个值
def binSplitDataSet(dataSet,feature,value):
    #将数据集合切分得到两个子集并返回
    mat0 = dataSet[nonzero(dataSet[:,feature] > value)[0],:]
    mat1 = dataSet[nonzero(dataSet[:,feature] <= value)[0],:]

    return mat0,mat1

#建立叶结点的函数
#当chooseBestSplit函数决定不再对数据集进行切分时,将调用该regLeaf函数
#来得到叶节点的模型。在回归树种,该模型其实就是目标变量的均值
def regLeaf(dataSet):
    return mean(dataSet[:,-1])

#计算误差的函数——这里计算的是总方差
def regErr(dataSet):
    #均方差函数var*数据集中样本的个数=总方差
    return var(dataSet[:,-1]) * shape(dataSet)[0]

#给定某个误差计算方法,该函数会找到数据集上最佳的二元切割方式
#(他遍历所有的特征及可能的取值来找到使误差最小化的切分阈值)
#另外,该函数还要确定什么时候停止切分,一旦停止切分就会生成一个叶节点
#errType为平方误差的总值(总方差)
def chooseBestSplit(dataSet, leafType=regLeaf, errType=regErr, ops=(1,4)):
    #用户指定的参数,用于控制函数停止时机
    #tolS为误差下降值,tolN为切分的最少样本数
    tolS = ops[0]; tolN = ops[1]
    #如果所有值相等则退出
    if len(set(dataSet[:,-1].T.tolist()[0])) == 1:
        #找不到一个“好”的二元切分,返回None并同时调用leafType来生成叶节点
        return None, leafType(dataSet)
    m,n = shape(dataSet)
    S = errType(dataSet)
    bestS = inf; bestIndex = 0; bestValue = 0
    for featIndex in range(n-1):
        for splitVal in set((dataSet[:,featIndex].T.A.tolist())[0]): 
            mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
            if (shape(mat0)[0] < tolN) or (shape(mat1)[0] < tolN): continue
            newS = errType(mat0) + errType(mat1)
            if newS < bestS: 
                bestIndex = featIndex
                bestValue = splitVal
                bestS = newS
    #如果误差减少不大则退出
    if (S - bestS) < tolS: 
        return None, leafType(dataSet) 
    mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
    #如果切分出的数据集很小则退出
    if (shape(mat0)[0] < tolN) or (shape(mat1)[0] < tolN): 
        return None, leafType(dataSet)
    #找到了一个“好”的切分方式,返回特征编号和切分特征值
    #找到了最佳的切分方式:切分后能达到最低误差的切分
    return bestIndex,bestValue


#构建树的函数
#dataSet为数据集
#leafType为建立叶结点的函数,errType为误差计算函数
#ops是一个包含书构建所需其他参数的元组
def createTree(dataSet, leafType=regLeaf, errType=regErr, ops=(1,4)):
    #chooseBestSplit为切分函数
    #若满足停止条件chooseBestSplit将返回None和某类模型的值
    #如果构建的是回归树,该模型是一个常数,如果是模型树,其
    #模型是一个线性方程(回归树假设叶节点是常数值)
    #若不满足停止条件,chooseBestSplit将创建一个新的python
    #字典,并将数据集分成两份,在这两份数据集上分别继续递归调
    #用createTree函数
    feat,val=chooseBestSplit(dataSet,leafType,errType,ops)
    #满足停止条件时返回叶节点
    if feat==None:
        return val
    retTree={}
    retTree["spInd"]=feat
    retTree["spVal"]=val
    #将数据集按照待分特征和该特征的某个值进行二分操作
    lSet,rSet=binSplitDataSet(dataSet,feat,val)
    #创建左右子树
    retTree["left"]=createTree(lSet,leafType,errType,ops)
    retTree["right"]=createTree(rSet,leafType,errType,ops)
    return retTree


def drawFigure1():
    # import matplotlib.pyplot as plt 
    # myDat=loadDataSet("ex00.txt") 
    # myMat=mat(myDat) 
    # createTree(myMat) 
    # plt.plot(myMat[:,0],myMat[:,1],"ro") 
    # plt.show()
    import matplotlib.pyplot as plt 
    myDat=loadDataSet("ex0.txt") 
    myMat=mat(myDat) 
    createTree(myMat) 
    plt.plot(myMat[:,1],myMat[:,2],"ro") 
    plt.show()



def main():
    drawFigure1()
    # myDat=loadDataSet("ex00.txt")
    # myMat=mat(myDat)
    # myTree=createTree(myMat)
    # print(myTree)


    #建立一个主对角线元素全为1的矩阵
    #testMat=mat(eye(4))
    #print(testMat)
    #要分割的特征位于第一列
    #按照0.5去划分
    #mat0,mat1=binSplitDataSet(testMat,0,0.5)
    # print(mat0)
    # print(mat1)

if __name__=="__main__":
    main()```


  [1]: /img/bVbqGCZ

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/43496.html

相关文章

  • 机器学习算法经验总结

    摘要:看到一篇很好的介绍机器学习算法的文章,转载过来,有这方面学习研究的朋友可以看看。算算时间,从开始到现在,做机器学习算法也将近八个月了。目前,机器学习的方法主要有三种监督学习半监督学习和无监督学习。 看到一篇很好的介绍机器学习算法的文章,转载过来,有这方面学习、研究的朋友可以看看。 算算时间,从开始到现在,做机器学习算法也将近八个月了。虽然还没有达到融会贯通的地步,但至少在熟悉了算法的流...

    snowLu 评论0 收藏0
  • 机器学习实战_集成学习(一)

    摘要:集成学习集成学习通过构建并结合多个学习器来完成学习任务,比单一学习器获得显著优越的泛化性能。在此情形下,初始设置的学习轮数也许还远未达到,可能导致最终集成中只包含很少的基学习器而性能不佳。 集成学习 集成学习(ensemble learning)通过构建并结合多个学习器来完成学习任务,比单一学习器获得显著优越的泛化性能。想要获得好的集成,个体学习器应好而不同,要保证准确性和多样性。要产...

    MingjunYang 评论0 收藏0
  • ApacheCN 人工智能知识 v1.0

    摘要:贡献者飞龙版本最近总是有人问我,把这些资料看完一遍要用多长时间,如果你一本书一本书看的话,的确要用很长时间。为了方便大家,我就把每本书的章节拆开,再按照知识点合并,手动整理了这个知识树。 Special Sponsors showImg(https://segmentfault.com/img/remote/1460000018907426?w=1760&h=200); 贡献者:飞龙版...

    刘厚水 评论0 收藏0
  • 机器学习算法基础(使用Python代码)

    摘要:机器学习算法类型从广义上讲,有种类型的机器学习算法。强化学习的例子马尔可夫决策过程常用机器学习算法列表以下是常用机器学习算法的列表。我提供了对各种机器学习算法的高级理解以及运行它们的代码。决策树是一种监督学习算法,主要用于分类问题。 showImg(https://segmentfault.com/img/remote/1460000019086462); 介绍 谷歌的自动驾驶汽车和机...

    BenCHou 评论0 收藏0
  • 机器学习算法基础(使用Python代码)

    摘要:机器学习算法类型从广义上讲,有种类型的机器学习算法。强化学习的例子马尔可夫决策过程常用机器学习算法列表以下是常用机器学习算法的列表。我提供了对各种机器学习算法的高级理解以及运行它们的代码。决策树是一种监督学习算法,主要用于分类问题。 showImg(https://segmentfault.com/img/remote/1460000019086462); 介绍 谷歌的自动驾驶汽车和机...

    yanbingyun1990 评论0 收藏0
  • ApacheCN 数据科学/人工智能/机器学习知识 2019.2

    摘要:主页暂时下线社区暂时下线知识库自媒体平台微博知乎简书博客园我们不是的官方组织机构团体,只是技术栈以及的爱好者合作侵权,请联系请抄送一份到预处理离散化等值分箱等量分箱独热标准化最小最大标准化归一化特征选择信息增益信息增益率模型验证评价指 【主页】 apachecn.org 【Github】@ApacheCN 暂时下线: 社区 暂时下线: cwiki 知识库 自媒体平台 微博...

    darryrzhong 评论0 收藏0

发表评论

0条评论

CODING

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<