더북(TheBook)
>>> from sklearn.tree import DecisionTreeClassifier
>>> tree_model = DecisionTreeClassifier(criterion=''gini',
...                                     max_depth=4,
...                                     random_state=1)
>>> tree_model.fit(X_train, y_train)
>>> X_combined = np.vstack((X_train, X_test))
>>> y_combined = np.hstack((y_train, y_test))
>>> plot_decision_regions(X_combined,
...                       y_combined,
...                       classifier=tree_model,
...                       test_idx=range(105, 150))
>>> plt.xlabel(''Petal length [cm]')
>>> plt.ylabel(''Petal width [cm]')
>>> plt.legend(loc=''upper left')
>>> plt.tight_layout()
>>> plt.show()

코드를 실행하면 축에 나란히 놓인 전형적인 결정 트리의 결정 경계를 얻습니다.

신간 소식 구독하기
뉴스레터에 가입하시고 이메일로 신간 소식을 받아 보세요.