在多类分类问题中,当决策函数的形状设置为'ovr'(One-vs-Rest)时,平局破解(tie breaking)可能会带来额外的计算成本,因此默认情况下该功能是关闭的。本文通过一个示例来展示break_ties参数对决策边界的影响。当break_ties设置为False时,中间区域的输入数据将被统一分类为一个类别;而当break_ties设置为True时,平局破解机制将在该区域创建一个非凸的决策边界。
以下是使用Python和scikit-learn库实现的代码示例。代码中首先生成了一组随机数据点,然后使用支持向量机(SVM)进行分类,并展示了break_ties参数对决策边界的影响。
import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import make_blobs
from sklearn.svm import SVC
# 生成随机数据点
X, y = make_blobs(random_state=27)
# 设置图表大小和标题
fig, sub = plt.subplots(2, 1, figsize=(5, 8))
titles = ("break_ties = False", "break_ties = True")
# 遍历break_ties的两个值,并绘制对应的决策边界
for break_ties, title, ax in zip((False, True), titles, sub.flatten()):
svm = SVC(kernel="linear", C=1, break_ties=break_ties, decision_function_shape="ovr").fit(X, y)
xlim = [X[:, 0].min(), X[:, 0].max()]
ylim = [X[:, 1].min(), X[:, 1].max()]
xs = np.linspace(xlim[0], xlim[1], 1000)
ys = np.linspace(ylim[0], ylim[1], 1000)
xx, yy = np.meshgrid(xs, ys)
pred = svm.predict(np.c_[xx.ravel(), yy.ravel()])
colors = [plt.cm.Accent(i) for i in [0, 4, 7]]
points = ax.scatter(X[:, 0], X[:, 1], c=y, cmap="Accent")
classes = [(0, 1), (0, 2), (1, 2)]
line = np.linspace(X[:, 1].min() - 5, X[:, 1].max() + 5)
ax.imshow(-pred.reshape(xx.shape), cmap="Accent", alpha=0.2, extent=(xlim[0], xlim[1], ylim[1], ylim[0]))
for coef, intercept, col in zip(svm.coef_, svm.intercept_, classes):
line2 = -(line * coef[1] + intercept) / coef[0]
ax.plot(line2, line, "-", c=colors[col[0]])
ax.plot(line2, line, "--", c=colors[col[1]])
ax.set_xlim(xlim)
ax.set_ylim(ylim)
ax.set_title(title)
ax.set_aspect("equal")
plt.show()
通过上述代码,可以看到在break_ties=False的情况下,中间区域的数据点被统一分类为一个类别,而当break_ties=True时,决策边界变得非凸,以解决平局问题。这种平局破解机制虽然可以提高分类的准确性,但也可能带来额外的计算成本。
脚本的总运行时间为0分钟0.972秒。可以下载Jupyter笔记本、Python源代码或压缩包,以便进一步学习和使用。
以下是一些与SVM相关的其他示例,可以进一步探索: