最新文章專題視頻專題問答1問答10問答100問答1000問答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
當(dāng)前位置: 首頁 - 科技 - 知識百科 - 正文

決策樹的python實(shí)現(xiàn)方法

來源:懂視網(wǎng) 責(zé)編:小采 時(shí)間:2020-11-27 14:40:46
文檔

決策樹的python實(shí)現(xiàn)方法

決策樹的python實(shí)現(xiàn)方法:本文實(shí)例講述了決策樹的python實(shí)現(xiàn)方法。分享給大家供大家參考。具體實(shí)現(xiàn)方法如下: 決策樹算法優(yōu)缺點(diǎn): 優(yōu)點(diǎn):計(jì)算復(fù)雜度不高,輸出結(jié)果易于理解,對中間值缺失不敏感,可以處理不相關(guān)的特征數(shù)據(jù) 缺點(diǎn):可能會(huì)產(chǎn)生過度匹配的問題 適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱
推薦度:
導(dǎo)讀決策樹的python實(shí)現(xiàn)方法:本文實(shí)例講述了決策樹的python實(shí)現(xiàn)方法。分享給大家供大家參考。具體實(shí)現(xiàn)方法如下: 決策樹算法優(yōu)缺點(diǎn): 優(yōu)點(diǎn):計(jì)算復(fù)雜度不高,輸出結(jié)果易于理解,對中間值缺失不敏感,可以處理不相關(guān)的特征數(shù)據(jù) 缺點(diǎn):可能會(huì)產(chǎn)生過度匹配的問題 適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱

本文實(shí)例講述了決策樹的python實(shí)現(xiàn)方法。分享給大家供大家參考。具體實(shí)現(xiàn)方法如下:

決策樹算法優(yōu)缺點(diǎn):

優(yōu)點(diǎn):計(jì)算復(fù)雜度不高,輸出結(jié)果易于理解,對中間值缺失不敏感,可以處理不相關(guān)的特征數(shù)據(jù)

缺點(diǎn):可能會(huì)產(chǎn)生過度匹配的問題

適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱型

算法思想:

1.決策樹構(gòu)造的整體思想:

決策樹說白了就好像是if-else結(jié)構(gòu)一樣,它的結(jié)果就是你要生成這個(gè)一個(gè)可以從根開始不斷判斷選擇到葉子節(jié)點(diǎn)的樹,但是呢這里的if-else必然不會(huì)是讓我們認(rèn)為去設(shè)置的,我們要做的是提供一種方法,計(jì)算機(jī)可以根據(jù)這種方法得到我們所需要的決策樹。這個(gè)方法的重點(diǎn)就在于如何從這么多的特征中選擇出有價(jià)值的,并且按照最好的順序由根到葉選擇。完成了這個(gè)我們也就可以遞歸構(gòu)造一個(gè)決策樹了

2.信息增益

劃分?jǐn)?shù)據(jù)集的最大原則是將無序的數(shù)據(jù)變得更加有序。既然這又牽涉到信息的有序無序問題,自然要想到想弄的信息熵了。這里我們計(jì)算用的也是信息熵(另一種方法是基尼不純度)。公式如下:

數(shù)據(jù)需要滿足的要求:

① 數(shù)據(jù)必須是由列表元素組成的列表,而且所有的列白哦元素都要具有相同的數(shù)據(jù)長度
② 數(shù)據(jù)的最后一列或者每個(gè)實(shí)例的最后一個(gè)元素應(yīng)是當(dāng)前實(shí)例的類別標(biāo)簽

函數(shù):

calcShannonEnt(dataSet)
計(jì)算數(shù)據(jù)集的香農(nóng)熵,分兩步,第一步計(jì)算頻率,第二部根據(jù)公式計(jì)算香農(nóng)熵

splitDataSet(dataSet, aixs, value)
劃分?jǐn)?shù)據(jù)集,將滿足X[aixs]==value的值都劃分到一起,返回一個(gè)劃分好的集合(不包括用來劃分的aixs屬性,因?yàn)椴恍枰?br />
chooseBestFeature(dataSet)
選擇最好的屬性進(jìn)行劃分,思路很簡單就是對每個(gè)屬性都劃分下,看哪個(gè)好。這里使用到了一個(gè)set來選取列表中唯一的元素,這是一中很快的方法

majorityCnt(classList)
因?yàn)槲覀冞f歸構(gòu)建決策樹是根據(jù)屬性的消耗進(jìn)行計(jì)算的,所以可能會(huì)存在最后屬性用完了,但是分類還是沒有算完,這時(shí)候就會(huì)采用多數(shù)表決的方式計(jì)算節(jié)點(diǎn)分類

createTree(dataSet, labels)
基于遞歸構(gòu)建決策樹。這里的label更多是對于分類特征的名字,為了更好看和后面的理解。

代碼如下:


#coding=utf-8
import operator
from math import log
import time

def createDataSet():
dataSet=[[1,1,'yes'],
[1,1,'yes'],
[1,0,'no'],
[0,1,'no'],
[0,1,'no']]
labels = ['no surfaceing','flippers']
return dataSet, labels

#計(jì)算香農(nóng)熵
def calcShannonEnt(dataSet):
numEntries = len(dataSet)
labelCounts = {}
for feaVec in dataSet:
currentLabel = feaVec[-1]
if currentLabel not in labelCounts:
labelCounts[currentLabel] = 0
labelCounts[currentLabel] += 1
shannonEnt = 0.0
for key in labelCounts:
prob = float(labelCounts[key])/numEntries
shannonEnt -= prob * log(prob, 2)
return shannonEnt

def splitDataSet(dataSet, axis, value):
retDataSet = []
for featVec in dataSet:
if featVec[axis] == value:
reducedFeatVec = featVec[:axis]
reducedFeatVec.extend(featVec[axis+1:])
retDataSet.append(reducedFeatVec)
return retDataSet

def chooseBestFeatureToSplit(dataSet):
numFeatures = len(dataSet[0]) - 1#因?yàn)閿?shù)據(jù)集的最后一項(xiàng)是標(biāo)簽
baseEntropy = calcShannonEnt(dataSet)
bestInfoGain = 0.0
bestFeature = -1
for i in range(numFeatures):
featList = [example[i] for example in dataSet]
uniqueVals = set(featList)
newEntropy = 0.0
for value in uniqueVals:
subDataSet = splitDataSet(dataSet, i, value)
prob = len(subDataSet) / float(len(dataSet))
newEntropy += prob * calcShannonEnt(subDataSet)
infoGain = baseEntropy -newEntropy
if infoGain > bestInfoGain:
bestInfoGain = infoGain
bestFeature = i
return bestFeature

#因?yàn)槲覀冞f歸構(gòu)建決策樹是根據(jù)屬性的消耗進(jìn)行計(jì)算的,所以可能會(huì)存在最后屬性用完了,但是分類
#還是沒有算完,這時(shí)候就會(huì)采用多數(shù)表決的方式計(jì)算節(jié)點(diǎn)分類
def majorityCnt(classList):
classCount = {}
for vote in classList:
if vote not in classCount.keys():
classCount[vote] = 0
classCount[vote] += 1
return max(classCount)

def createTree(dataSet, labels):
classList = [example[-1] for example in dataSet]
if classList.count(classList[0]) ==len(classList):#類別相同則停止劃分
return classList[0]
if len(dataSet[0]) == 1:#所有特征已經(jīng)用完
return majorityCnt(classList)
bestFeat = chooseBestFeatureToSplit(dataSet)
bestFeatLabel = labels[bestFeat]
myTree = {bestFeatLabel:{}}
del(labels[bestFeat])
featValues = [example[bestFeat] for example in dataSet]
uniqueVals = set(featValues)
for value in uniqueVals:
subLabels = labels[:]#為了不改變原始列表的內(nèi)容復(fù)制了一下
myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet,
bestFeat, value),subLabels)
return myTree

def main():
data,label = createDataSet()
t1 = time.clock()
myTree = createTree(data,label)
t2 = time.clock()
print myTree
print 'execute for ',t2-t1
if __name__=='__main__':
main()

希望本文所述對大家的Python程序設(shè)計(jì)有所幫助。

聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文檔

決策樹的python實(shí)現(xiàn)方法

決策樹的python實(shí)現(xiàn)方法:本文實(shí)例講述了決策樹的python實(shí)現(xiàn)方法。分享給大家供大家參考。具體實(shí)現(xiàn)方法如下: 決策樹算法優(yōu)缺點(diǎn): 優(yōu)點(diǎn):計(jì)算復(fù)雜度不高,輸出結(jié)果易于理解,對中間值缺失不敏感,可以處理不相關(guān)的特征數(shù)據(jù) 缺點(diǎn):可能會(huì)產(chǎn)生過度匹配的問題 適用數(shù)據(jù)類型:數(shù)值型和標(biāo)稱
推薦度:
標(biāo)簽: 方法 實(shí)現(xiàn) 代碼
  • 熱門焦點(diǎn)

最新推薦

猜你喜歡

熱門推薦

專題
Top