本文目錄一覽:
- 1、python數據加工,決策樹,求助
- 2、如何將python生成的決策樹利用graphviz畫出來
- 3、python 怎麼做決策樹模型 案例
- 4、python中的sklearn中決策樹使用的是哪一種算法
- 5、ML – 決策樹(decision tree)
python數據加工,決策樹,求助
new_case =[{‘from’: ‘start’,’to’: ‘A’},{‘from’: ‘A’,’to’: ‘B’},{‘from’: ‘B’,’to’: ‘C’},
{‘from’: ‘B’,’to’: ‘D’},{‘from’: ‘start’,’to’: ‘F’},{‘from’: ‘start’,’to’: ‘E’},
{‘from’: ‘E’,’to’: ‘G’},{‘from’: ‘E’,’to’: ‘C’},{‘from’: ‘E’,’to’: ‘D’}]
L = []
def add_to_list(l, key_dic, dic_list):
l.append(key_dic[‘from’])
found = False
for dic in dic_list:
if(dic[‘from’] == key_dic[‘to’]):
found = True;
add_to_list(l, dic, dic_list)
del l[-1]
if not found:
t = l[:] + [key_dic[‘to’]]
L.append(t)
for dic in new_case:
if dic[‘from’] == ‘start’:
l = []
add_to_list(l, dic, new_case)
for i in L:
print(i)
如何將python生成的決策樹利用graphviz畫出來
# 這裡有一個示例,你可以看一下。
#
from IPython.display import Image
dot_data = tree.export_graphviz(clf, out_file=None,
feature_names=iris.feature_names,
class_names=iris.target_names,
filled=True, rounded=True,
special_characters=True)
graph = pydotplus.graph_from_dot_data(dot_data)
Image(graph.create_png())
python 怎麼做決策樹模型 案例
Original values: (1, ‘abc’, 2.7)
Format string : I3sf
Uses : 12 bytes
Packed Value : 0100000061626300cdcc2c40
Unpacked Type : type ‘tuple’ Value: (1, ‘abc’, 2.700000047683716)
python中的sklearn中決策樹使用的是哪一種算法
sklearn中決策樹分為DecisionTreeClassifier和DecisionTreeRegressor,所以用的算法是CART算法,也就是分類與回歸樹算法(classification and regression tree,CART),劃分標準默認使用的也是Gini,ID3和C4.5用的是信息熵,為何要設置成ID3或者C4.5呢
ML – 決策樹(decision tree)
機器學習中分類和預測算法的評估:
判定樹是一個類似於流程圖的樹結構:其中,每個內部結點表示在一個 屬性上的測試 ,每個分支代表一個 屬性輸出 ,而每個樹葉結點代表 類或類分佈 。樹的最頂層是根結點。
機器學習中分類方法中的一個重要算法
信息和抽象,如何度量?
1948年,香農提出了 」信息熵(entropy)「的概念
一條信息的信息量大小和它的不確定性有直接的關係,要搞清楚一件非常非常不確定的事情,或者
是我們一無所知的事情,需要了解大量信息== 信息量的度量就等於不確定性的多少
例子:猜世界盃冠軍,假如一無所知,猜多少次?
每個隊奪冠的幾率不是相等的
比特(bit)來衡量信息的多少
變量的不確定性越大,熵也就越大
3.1 決策樹歸納算法 ( ID3 )
1970-1980, J.Ross. Quinlan, ID3算法
選擇屬性(A為age時)判斷結點
信息獲取量(Information Gain) :
Gain(A) = Info(D) – Infor_A(D)
Gain(A) =按yes/no分的熵 – 按A屬性分類的熵
通過A來作為節點分類獲取了多少信息
類似
Gain(income) = 0.029
Gain(student) = 0.151
Gain(credit_rating)=0.048
所以,選擇age作為第一個根節點
重複。。。
算法:
*其他算法:
C4.5 : Quinlan
Classification and Regression Trees (CART): (L. Breiman, J. Friedman, R. Olshen, C. Stone)
共同點:都是貪心算法,自上而下(Top-down approach)
區別:屬性選擇度量方法不同: C4.5 (gain ratio), CART(gini index), ID3 (Information Gain)
先剪枝
後剪枝
直觀,便於理解,小規模數據集有效
處理連續變量不好(離散化,閾值選擇對結果影響大)
類別較多時,錯誤增加的比較快
可規模性一般
1. Python
2. Python機器學習的庫: scikit-learn
2.1: 特性:
簡單高效的數據挖掘和機器學習分析
對所有用戶開放,根據不同需求高度可重用性
基於Numpy, SciPy和matplotlib
開源,商用級別:獲得 BSD許可
2.2 覆蓋問題領域:
分類(classification), 回歸(regression), 聚類(clustering), 降維(dimensionality reduction)
模型選擇(model selection), 預處理(preprocessing)
3. 使用用scikit-learn
安裝scikit-learn: pip, easy_install, windows installer
安裝必要package:numpy, SciPy和matplotlib, 可使用 Anaconda (包含numpy, scipy等科學計算常用package)
4. 例子:
文檔:
安裝 Graphviz:
配置環境變量
轉化dot文件至pdf可視化決策樹:dot -Tpdf iris.dot -o outpu.pdf
原創文章,作者:XW2O5,如若轉載,請註明出處:https://www.506064.com/zh-hk/n/128744.html