シェアする

  • このエントリーをはてなブックマークに追加

【Scikit-learn】決定木分析でデータ予測 (識別率の計算)

スポンサーリンク
ビッグバナー(上2)

この記事では、Pythonと機械学習ライブラリ「scikit-learn」を用いて、決定木分析で学習とデータ予測を行う方法について解説します。

決定木分析とは

決定木分析 (Decision Tree Analysis)とは、決定木と呼ばれるデータ構造を用いて分類や回帰を行う学習手法です。
アルゴリズムがシンプルで、学習結果を可視化たり、事前にデータを正規化する手間を省けるといった利点があります。
決定木分析はCART法ともいいます。

【詳細】決定木分析のアルゴリズム(分類・回帰・木構造)

今回は、Python言語とscikit-learnモジュールで決定木分析で学習とデータ予測をしてきます。

sklearn.tree.DecisionTreeClassifier クラス

scikit-learnでは、sklearn.tree.DecisionTreeClassifierクラスを使うことで決定木分析を実装できます。
その使い方は下記の通りです。

【書式】
sklearn.tree.DecisionTreeClassifier(criterion=’gini’, splitter=’best’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, class_weight=None, presort=False)

※各パラメータに設定されてる値(=の後)はデフォルト値

パラメータ 内容
criterion ジニ係数「gini」か情報量「entropy」のどちらで分割するかを指定
splitter 各ノードの分割を「best (最適)」と「random (ランダム最適)」のどちらで行うか選択
max_features 最適な分割を探索する際に用いる特徴数の最大値
max_depth 決定木の深さの最大値
min_samples_split サンプルを枝に分割する数の最小値
min_samples_leaf サンプル1つが属する葉の数の最小値
min_weight_fraction_leaf 1つの葉に属する必要のあるサンプルの割合の最小値
max_leaf_nodes 作成する葉の数の最大値(指定した場合max_depthは無効化)
class_weight 各説明変数の重み
random_state 乱数のシードを指定(指定しない場合はnp.randomを利用)
presort 高速化の目的で事前に入力データのソートを行うかどうか

【参考文献】 http://scikit-learn.org/stable/modules/generated/sklearn.tree.DecisionTreeClassifier.html

ソースコード

サンプルプログラムのソースコードは下記の通りです。

【data.csv】

実行結果

サンプルプログラムの実行結果は下記の通りです。

[30 25 20 30 45 35 25 35 35 40]
1.0

識別率1.0(=100%)なので正しく予測できていることがわかります。

【おすすめ関連記事】
Scikit-learn入門・使い方
Scikit-learnをインストールする方法
Python入門 基本文法

スポンサーリンク
レクタングル(下2)
レクタングル(下2)