局部异常因子(LOF)是一种无监督异常检测方法,它通过计算给定数据点与其邻居的局部密度偏差来识别异常值。在这种方法中,如果一个样本的局部密度显著低于其邻居,则被视作异常值。本文将展示如何使用LOF进行新样本检测。需要注意的是,在使用LOF进行新样本检测时,不能在训练集上使用predict、decision_function和score_samples方法,因为这会导致错误的结果。这些方法只能用于新的、未见过的数据上。有关异常检测和新样本检测之间的区别以及如何使用LOF进行异常检测的详细信息,请参考用户指南。
在实践中,通常没有现成的信息来确定邻居的数量(参数n_neighbors),但通常设置为20似乎在大多数情况下都能很好地工作。n_neighbors的设置通常需要满足两个条件:1)大于一个聚类必须包含的最小样本数,以便其他样本可以相对于这个聚类成为局部异常值;2)小于可能成为局部异常值的最近样本的最大数量。
以下是使用LOF进行新样本检测的Python代码示例。首先,导入必要的库,并设置随机数种子以确保结果的可重复性。然后,生成正常的训练观测值,并创建新的正常观测值和一些异常的新观测值。接着,使用LocalOutlierFactor类来拟合模型,并在新数据上进行预测。最后,绘制学习到的边界、点和最近的向量。
import matplotlib
import matplotlib.lines as mlines
import matplotlib.pyplot as plt
import numpy as np
from sklearn.neighbors import LocalOutlierFactor
np.random.seed(42)
xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500))
# 生成正常的训练观测值
X = 0.3 * np.random.randn(100, 2)
X_train = np.r_[X + 2, X - 2]
# 生成新的正常观测值
X = 0.3 * np.random.randn(20, 2)
X_test = np.r_[X + 2, X - 2]
# 生成一些异常的新观测值
X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2))
# 拟合新样本检测模型(novelty=True)
clf = LocalOutlierFactor(n_neighbors=20, novelty=True, contamination=0.1)
clf.fit(X_train)
# 在新数据上进行预测
y_pred_test = clf.predict(X_test)
y_pred_outliers = clf.predict(X_outliers)
# 绘制学习到的边界和点
Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
Z = Z.reshape(xx.shape)
plt.title("Novelty Detection with LOF")
plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)
a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred")
plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred")
s = 40
b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k")
b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k")
c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k")
plt.axis("tight")
plt.xlim((-5, 5))
plt.ylim((-5, 5))
plt.legend([mlines.Line2D([], [], color="darkred"), b1, b2, c], ["learned frontier", "training observations", "new regular observations", "new abnormal observations"], loc="upper left", prop=matplotlib.font_manager.FontProperties(size=11))
plt.xlabel("errors novel regular: %d/40 ; errors novel abnormal: %d/40" % (y_pred_test[y_pred_test == -1].size, y_pred_outliers[y_pred_outliers == 1].size))
plt.show()
上述代码首先设置了随机数种子,以确保结果的可重复性。然后,使用numpy库生成了训练数据和测试数据,其中训练数据是正常观测值,测试数据包括新的正常观测值和异常的新观测值。接着,使用LocalOutlierFactor类来拟合模型,并设置n_neighbors参数为20,表示考虑20个邻居。还设置了novelty参数为True,表示正在进行新样本检测,而不是异常检测。最后,使用decision_function方法来计算决策函数的值,并使用matplotlib库来绘制学习到的边界和点。
在绘制的图中,可以看到学习到的边界(红色线)将正常观测值(白色点)和异常观测值(金色点)分开。新的正常观测值(紫色点)也被正确地识别为正常。这表明LOF方法在新样本检测方面是有效的。
需要注意的是,在使用LOF进行新样本检测时,不能在训练集上使用predict、decision_function和score_samples方法,因为这会导致错误的结果。这些方法只能用于新的、未见过的数据上。这是由于LOF方法的工作原理决定的,它需要在新数据上计算局部密度偏差,而不是在训练数据上。