本篇文章旨在展示不同异常检测算法在2D数据集上的特性。这些数据集包含一个或两个高密度区域,用以展示算法处理多峰数据的能力。在每个数据集中,15%的样本被生成为随机均匀噪声。这个比例被用作OneClassSVM的nu参数和其他异常检测算法的污染参数的值。内围和异常之间的决策边界以黑色显示,除了Local Outlier Factor(LOF),因为它没有预测方法可以应用于新数据,当它用于异常检测时。
OneClassSVM对异常值敏感,因此在异常检测中表现不佳。这个估计器最适合用于新颖性检测,当训练集没有被异常值污染时。尽管如此,在高维或没有任何关于内围数据分布假设的情况下进行异常检测是非常具有挑战性的,One-class SVM可能会根据其超参数的值在这些情况下给出有用的结果。
sklearn.linear_model.SGDOneClassSVM是基于随机梯度下降(SGD)的One-Class SVM的实现。结合核近似,这个估计器可以用来近似解决核化的sklearn.svm.OneClassSVM。注意到,尽管不完全相同,sklearn.linear_model.SGDOneClassSVM的决策边界和sklearn.svm.OneClassSVM的决策边界非常相似。使用sklearn.linear_model.SGDOneClassSVM的主要优点是它与样本数量线性扩展。
sklearn.covariance.EllipticEnvelope假设数据是高斯分布,并学习一个椭圆。因此,当数据不是单峰时,它的表现会下降。然而,请注意,这个估计器对异常值是鲁棒的。
IsolationForest和LocalOutlierFactor似乎对多峰数据集表现相当好。LocalOutlierFactor相对于其他估计器的优势在第三个数据集上显示出来,其中两个模式具有不同的密度。这种优势是由LOF的局部特性解释的,意味着它只比较一个样本的异常分数与其邻居的分数。
最后,对于最后一个数据集,很难说一个样本比另一个样本更异常,因为它们在超立方体中均匀分布。除了OneClassSVM稍微过拟合之外,所有估计器都为这种情况提供了不错的解决方案。在这种情况下,仔细查看样本的异常分数是明智的,因为一个好的估计器应该为所有样本分配相似的分数。
import time
import matplotlib.pyplot as plt
import numpy as np
from sklearn import svm
from sklearn.covariance import EllipticEnvelope
from sklearn.datasets import make_blobs, make_moons
from sklearn.ensemble import IsolationForest
from sklearn.kernel_approximation import Nystroem
from sklearn.linear_model import SGDOneClassSVM
from sklearn.neighbors import LocalOutlierFactor
from sklearn.pipeline import make_pipeline
# 设置
n_samples = 300
outliers_fraction = 0.15
n_outliers = int(outliers_fraction * n_samples)
n_inliers = n_samples - n_outliers
# 定义异常/异常检测方法进行比较
anomaly_algorithms = [
("Robust covariance", EllipticEnvelope(contamination=outliers_fraction, random_state=42)),
("One-Class SVM", svm.OneClassSVM(nu=outliers_fraction, kernel="rbf", gamma=0.1)),
("One-Class SVM (SGD)", make_pipeline(Nystroem(gamma=0.1, random_state=42, n_components=150), SGDOneClassSVM(nu=outliers_fraction, shuffle=True, fit_intercept=True, random_state=42, tol=1e-6))),
("Isolation Forest", IsolationForest(contamination=outliers_fraction, random_state=42)),
("Local Outlier Factor", LocalOutlierFactor(n_neighbors=35, contamination=outliers_fraction)),
]
# 定义数据集
datasets = [
make_blobs(centers=[[0, 0], [0, 0]], cluster_std=0.5, random_state=0, n_samples=n_inliers, n_features=2)[0],
make_blobs(centers=[[2, 2], [-2, -2]], cluster_std=[0.5, 0.5], random_state=0, n_samples=n_inliers, n_features=2)[0],
make_blobs(centers=[[2, 2], [-2, -2]], cluster_std=[1.5, 0.3], random_state=0, n_samples=n_inliers, n_features=2)[0],
4.0 * (make_moons(n_samples=n_samples, noise=0.05, random_state=0)[0] - np.array([0.5, 0.25])),
14.0 * (np.random.RandomState(42).rand(n_samples, 2) - 0.5),
]
# 比较给定分类器在给定设置下的表现
xx, yy = np.meshgrid(np.linspace(-7, 7, 150), np.linspace(-7, 7, 150))
plt.figure(figsize=(len(anomaly_algorithms) * 2 + 4, 12.5))
plt.subplots_adjust(left=0.02, right=0.98, bottom=0.001, top=0.96, wspace=0.05, hspace=0.01)
plot_num = 1
for i_dataset, X in enumerate(datasets):
# 添加异常值
X = np.concatenate([X, np.random.RandomState(42).uniform(low=-6, high=6, size=(n_outliers, 2))], axis=0)
for name, algorithm in anomaly_algorithms:
t0 = time.time()
algorithm.fit(X)
t1 = time.time()
plt.subplot(len(datasets), len(anomaly_algorithms), plot_num)
if i_dataset == 0:
plt.title(name, size=18)
# 拟合数据并标记异常值
if name == "Local Outlier Factor":
y_pred = algorithm.fit_predict(X)
else:
y_pred = algorithm.fit(X).predict(X)
# 绘制等高线和点
if name != "Local Outlier Factor":
Z = algorithm.predict(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)
plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="black")
colors = np.array(["#377eb8", "#ff7f00"])
plt.scatter(X[:, 0], X[:, 1], s=10, color=colors[(y_pred + 1) // 2])
plt.xlim(-7, 7)
plt.ylim(-7, 7)
plt.xticks(())
plt.yticks(())
plt.text(0.99, 0.01, "%.2fs" % (t1 - t0).lstrip("0"), transform=plt.gca().transAxes, size=15, horizontalalignment="right")
plot_num += 1
plt.show()