随机森林嵌入与降维

随机森林嵌入(RandomTreesEmbedding)是一种无监督且高效的数据映射方法,它能够将数据映射到一个高维且稀疏的表示空间中。这种表示对于分类任务可能非常有益。在高维空间中,线性分类器通常能够达到很高的准确率。对于稀疏的二进制数据,伯努利朴素贝叶斯(BernoulliNB)尤其适用。本文通过一个合成数据集的例子,展示了如何使用随机森林嵌入进行非线性降维分类,并比较了在变换后的空间中伯努利朴素贝叶斯与原始数据上学习的ExtraTreesClassifier森林的决策边界。

数据集生成与嵌入

首先,生成一个合成的数据集,然后使用RandomTreesEmbedding对数据进行变换。变换后的数据可以通过截断奇异值分解(TruncatedSVD)进行降维,以便于可视化。

from sklearn.datasets import make_circles from sklearn.decomposition import TruncatedSVD from sklearn.ensemble import RandomTreesEmbedding import numpy as np import matplotlib.pyplot as plt # 生成合成数据集 X, y = make_circles(factor=0.5, random_state=0, noise=0.05) # 使用RandomTreesEmbedding进行数据变换 hasher = RandomTreesEmbedding(n_estimators=10, random_state=0, max_depth=3) X_transformed = hasher.fit_transform(X) # 使用截断SVD进行降维 svd = TruncatedSVD(n_components=2) X_reduced = svd.fit_transform(X_transformed)

分类器训练与可视化

接下来,在变换后的数据上训练一个伯努利朴素贝叶斯分类器,并与原始数据上训练的ExtraTreesClassifier进行比较。使用matplotlib库来可视化原始数据、降维后的数据以及分类器的决策边界。

from sklearn.naive_bayes import BernoulliNB from sklearn.ensemble import ExtraTreesClassifier # 在变换后的数据上训练伯努利朴素贝叶斯分类器 nb = BernoulliNB() nb.fit(X_transformed, y) # 在原始数据上训练ExtraTreesClassifier trees = ExtraTreesClassifier(max_depth=3, n_estimators=10, random_state=0) trees.fit(X, y) # 可视化原始数据和降维后的数据 fig = plt.figure(figsize=(9, 8)) ax = plt.subplot(221) ax.scatter(X[:, 0], X[:, 1], c=y, s=50, edgecolor="k") ax.set_title("原始数据 (2d)") ax.set_xticks(()) ax.set_yticks(()) ax = plt.subplot(222) ax.scatter(X_reduced[:, 0], X_reduced[:, 1], c=y, s=50, edgecolor="k") ax.set_title("变换数据的截断SVD降维 (2d)") ax.set_xticks(()) ax.set_yticks(()) # 可视化伯努利朴素贝叶斯分类器的决策边界 h = 0.01 x_min, x_max = X[:, 0].min() - 0.5, X[:, 0].max() + 0.5 y_min, y_max = X[:, 1].min() - 0.5, X[:, 1].max() + 0.5 xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h)) transformed_grid = hasher.transform(np.c_[xx.ravel(), yy.ravel()]) y_grid_pred = nb.predict_proba(transformed_grid)[:, 1] ax = plt.subplot(223) ax.set_title("变换数据上的伯努利朴素贝叶斯") ax.pcolormesh(xx, yy, y_grid_pred.reshape(xx.shape)) ax.scatter(X[:, 0], X[:, 1], c=y, s=50, edgecolor="k") ax.set_ylim(-1.4, 1.4) ax.set_xlim(-1.4, 1.4) ax.set_xticks(()) ax.set_yticks(()) # 可视化ExtraTreesClassifier的决策边界 y_grid_pred = trees.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1] ax = plt.subplot(224) ax.set_title("ExtraTrees预测") ax.pcolormesh(xx, yy, y_grid_pred.reshape(xx.shape)) ax.scatter(X[:, 0], X[:, 1], c=y, s=50, edgecolor="k") ax.set_ylim(-1.4, 1.4) ax.set_xlim(-1.4, 1.4) ax.set_xticks(()) ax.set_yticks(()) plt.tight_layout() plt.show()
沪ICP备2024098111号-1
上海秋旦网络科技中心:上海市奉贤区金大公路8218号1幢 联系电话:17898875485