近邻成分分析法是一种降维技术,旨在最大化最近邻分类的准确性。本文将通过一个简单的数据集来展示这种方法,并比较原始点空间与转换后的点空间。将使用Python的matplotlib库来绘制数据点,并使用scipy和sklearn库来实现NCA算法。
首先,创建一个包含9个样本的数据集,这些样本来自3个不同的类别。将在原始空间中绘制这些点,并特别关注编号为3的点。点之间的连接线粗细与它们之间的距离成比例。
import matplotlib.pyplot as plt
import numpy as np
from matplotlib import cm
from scipy.special import logsumexp
from sklearn.datasets import make_classification
# 创建数据集
X, y = make_classification(n_samples=9, n_features=2, n_informative=2, n_redundant=0, n_classes=3, n_clusters_per_class=1, class_sep=1.0, random_state=0)
# 绘制原始点
plt.figure(1)
ax = plt.gca()
for i in range(X.shape[0]):
ax.text(X[i, 0], X[i, 1], str(i), va="center", ha="center")
ax.scatter(X[i, 0], X[i, 1], s=300, c=cm.Set1(y[i]), alpha=0.4)
ax.set_title("原始点")
ax.axes.get_xaxis().set_visible(False)
ax.axes.get_yaxis().set_visible(False)
ax.axis("equal")
在上述代码中,首先导入了必要的库,然后使用make_classification
函数创建了一个数据集。接着,使用matplotlib的scatter
函数来绘制这些点,并为每个点添加了文本标签。
接下来,使用NeighborhoodComponentsAnalysis
类来学习数据的嵌入,并在转换后的点空间中绘制这些点。然后,将使用嵌入后的数据来找到每个点的最近邻居。
from sklearn.neighbors import NeighborhoodComponentsAnalysis
# 学习嵌入
nca = NeighborhoodComponentsAnalysis(max_iter=30, random_state=0)
nca.fit(X, y)
# 绘制嵌入后的点
plt.figure(2)
ax2 = plt.gca()
X_embedded = nca.transform(X)
# 绘制连接线和点
for i in range(len(X)):
ax2.text(X_embedded[i, 0], X_embedded[i, 1], str(i), va="center", ha="center")
ax2.scatter(X_embedded[i, 0], X_embedded[i, 1], s=300, c=cm.Set1(y[i]), alpha=0.4)
ax2.set_title("NCA嵌入")
ax2.axes.get_xaxis().set_visible(False)
ax2.axes.get_yaxis().set_visible(False)
ax2.axis("equal")
plt.show()
在这段代码中,首先创建了一个NeighborhoodComponentsAnalysis
对象,并使用fit
方法来学习数据的嵌入。然后,使用transform
方法将原始数据转换到嵌入空间,并绘制转换后的点。
该脚本的总运行时间为0分钟0.150秒。
以下是一些与近邻成分分析法相关的其他示例: