在机器学习领域,分类器的性能评估是至关重要的。本文将介绍如何使用不同的分类器对一个三类数据集进行分类,并通过可视化手段展示分类的概率。选用的数据集是著名的鸢尾花数据集,它包含三个类别,将使用支持向量机、L1和L2正则化的逻辑回归、以及高斯过程分类器来进行分类。
线性支持向量分类器(Linear SVC)默认情况下不是一个概率分类器,但在这个例子中启用了内置的概率校准选项(probability=True)。逻辑回归的One-Vs-Rest版本并不是一个开箱即用的多类分类器,因此在分离类别2和3时比其他估计器有更多的困难。
以下是各个分类器在训练集上的准确率:L1逻辑回归为83.3%,L2逻辑回归(多项式)为82.7%,L2逻辑回归(OvR)为79.3%,线性SVC为82.0%,高斯过程分类(GPC)为82.7%。
为了实现这一可视化,首先导入了必要的库,包括matplotlib用于绘图,numpy用于数值计算,以及scikit-learn中的多个模块用于数据处理和分类器的创建。使用了iris数据集,并仅取前两个特征以便于可视化。
import matplotlib.pyplot as plt
import numpy as np
from matplotlib import cm
from sklearn import datasets
from sklearn.gaussian_process import GaussianProcessClassifier
from sklearn.gaussian_process.kernels import RBF
from sklearn.inspection import DecisionBoundaryDisplay
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
from sklearn.multiclass import OneVsRestClassifier
from sklearn.svm import SVC
iris = datasets.load_iris()
X = iris.data[:, :2] # 只取前两个特征用于可视化
y = iris.target
n_features = X.shape[1]
C = 10
kernel = 1.0 * RBF([1.0, 1.0]) # 用于GPC
# 创建不同的分类器
classifiers = {
"L1逻辑回归": LogisticRegression(C=C, penalty="l1", solver="saga", max_iter=10000),
"L2逻辑回归(多项式)": LogisticRegression(C=C, penalty="l2", solver="saga", max_iter=10000),
"L2逻辑回归(OvR)": OneVsRestClassifier(LogisticRegression(C=C, penalty="l2", solver="saga", max_iter=10000)),
"线性SVC": SVC(kernel="linear", C=C, probability=True, random_state=0),
"GPC": GaussianProcessClassifier(kernel),
}
n_classifiers = len(classifiers)
fig, axes = plt.subplots(nrows=n_classifiers, ncols=len(iris.target_names), figsize=(3*2, n_classifiers*2))
for classifier_idx, (name, classifier) in enumerate(classifiers.items()):
y_pred = classifier.fit(X, y).predict(X)
accuracy = accuracy_score(y, y_pred)
print(f"Accuracy (train) for {name}: {accuracy:0.1%}")
for label in np.unique(y):
# 绘制分类器提供的概率估计
disp = DecisionBoundaryDisplay.from_estimator(classifier, X, response_method="predict_proba", class_of_interest=label, ax=axes[classifier_idx, label], vmin=0, vmax=1)
axes[classifier_idx, label].set_title(f"Class {label}")
# 绘制被预测为给定类别的数据
mask_y_pred = y_pred == label
axes[classifier_idx, label].scatter(X[mask_y_pred, 0], X[mask_y_pred, 1], marker="o", c="w", edgecolor="k")
axes[classifier_idx, label].set(xticks=(), yticks=())
axes[classifier_idx, 0].set_ylabel(name)
ax = plt.axes([0.15, 0.04, 0.7, 0.02])
plt.title("Probability")
cb = plt.colorbar(cm.ScalarMappable(norm=None, cmap="viridis"), cax=ax, orientation="horizontal")
plt.show()
在上述代码中,首先加载了iris数据集,并仅选择了前两个特征以便于在二维平面上进行可视化。然后,创建了多个分类器,并为每个分类器绘制了决策边界。每个分类器的准确率也被计算并打印出来。最后,使用matplotlib的colorbar功能添加了一个颜色条,以表示概率的大小。
通过这种可视化方法,可以直观地比较不同分类器的性能,以及它们在数据空间中的决策边界。这有助于理解不同分类器在处理特定数据集时的优缺点。