局部异常因子(LOF)算法在新颖性检测中的应用

局部异常因子(Local Outlier Factor,简称LOF)是一种无监督异常检测方法,它通过计算给定数据点与其邻居的局部密度偏差来识别异常。LOF算法将那些密度远低于其邻居的样本视为异常。本文将展示如何使用LOF算法进行新颖性检测。需要注意的是,在新颖性检测中,不能在训练集上使用predict、decision_function和score_samples方法,因为这会导致错误的结果。这些方法只能用于新的、未见过的数据(不在训练集中)上。

LOF算法中,考虑的邻居数量(参数n_neighbors)通常设置为:1)大于一个聚类必须包含的最小样本数量,以便其他样本可以相对于这个聚类成为局部异常;2)小于可能成为局部异常的最近样本的最大数量。在实践中,这些信息通常不可用,而取n_neighbors=20通常在一般情况下表现良好。

以下是使用LOF算法进行新颖性检测的Python代码示例。首先,导入必要的库,并设置随机种子以确保结果的可重复性。然后,生成正常(非异常)的训练观测值,并创建新的正常观测值。接着,生成一些异常的新观测值。之后,使用n_neighbors=20、novelty=True和contamination=0.1的参数配置来拟合模型。最后,对新的观测值和异常观测值进行预测,并计算错误率。

import matplotlib import matplotlib.lines as mlines import matplotlib.pyplot as plt import numpy as np from sklearn.neighbors import LocalOutlierFactor np.random.seed(42) xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500)) # 生成正常(非异常)的训练观测值 X = 0.3 * np.random.randn(100, 2) X_train = np.r_[X + 2, X - 2] # 生成新的正常(非异常)观测值 X = 0.3 * np.random.randn(20, 2) X_test = np.r_[X + 2, X - 2] # 生成一些异常的新观测值 X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2)) # 使用新颖性检测(novelty=True)拟合模型 clf = LocalOutlierFactor(n_neighbors=20, novelty=True, contamination=0.1) clf.fit(X_train) # 对新的观测值和异常观测值进行预测 y_pred_test = clf.predict(X_test) y_pred_outliers = clf.predict(X_outliers) # 计算错误率 n_error_test = y_pred_test[y_pred_test == -1].size n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size # 绘制学习到的边界、点和最近的向量 Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()]) Z = Z.reshape(xx.shape) plt.title("Novelty Detection with LOF") plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu) a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors="darkred") plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors="palevioletred") s = 40 b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c="white", s=s, edgecolors="k") b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c="blueviolet", s=s, edgecolors="k") c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c="gold", s=s, edgecolors="k") plt.axis("tight") plt.xlim((-5, 5)) plt.ylim((-5, 5)) plt.legend([mlines.Line2D([], [], color="darkred"), b1, b2, c], ["learned frontier", "training observations", "new regular observations", "new abnormal observations"], loc="upper left", prop=matplotlib.font_manager.FontProperties(size=11)) plt.xlabel("errors novel regular: %d/40 ; errors novel abnormal: %d/40" % (n_error_test, n_error_outliers)) plt.show()

上述代码首先导入了必要的库,包括matplotlib用于绘图,numpy用于数值计算,以及sklearn中的LocalOutlierFactor用于异常检测。然后,设置了随机种子以确保结果的可重复性。接下来,生成了正常(非异常)的训练观测值和新的正常观测值,并创建了一些异常的新观测值。之后,使用n_neighbors=20、novelty=True和contamination=0.1的参数配置来拟合模型。最后,对新的观测值和异常观测值进行预测,并计算错误率。

在绘制结果时,首先计算了决策函数的值,并将其重塑为与输入数据相同的形状。然后,使用contourf函数绘制了学习到的边界,并使用contour函数绘制了决策边界。接着,使用scatter函数绘制了训练观测值、新的正常观测值和异常观测值。最后,设置了图例和坐标轴的标签,并显示了图表。

通过上述代码,可以清楚地看到LOF算法在新颖性检测中的应用。训练观测值和新的正常观测值被正确地识别为非异常,而异常的新观测值被正确地识别为异常。这表明LOF算法在新颖性检测中具有很好的性能。

沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485