在机器学习领域,受限玻尔兹曼机(RBM)是一种有效的非线性特征提取模型,尤其适用于手写数字识别等任务。本文将介绍如何通过生成额外的标记数据来扩充小规模数据集,并利用RBM和逻辑回归分类器构建一个分类管道,以提高分类的准确性。
为了从小规模数据集中学习到良好的潜在表示,通过在每个方向上对训练数据进行1像素的线性偏移来人工生成更多的标记数据。这个过程可以通过以下Python代码实现:
import numpy as np
from scipy.ndimage import convolve
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import minmax_scale
def nudge_dataset(X, Y):
direction_vectors = [
[[0, 1, 0], [0, 0, 0], [0, 0, 0]],
[[0, 0, 0], [1, 0, 0], [0, 0, 0]],
[[0, 0, 0], [0, 0, 1], [0, 0, 0]],
[[0, 0, 0], [0, 0, 0], [0, 1, 0]],
]
def shift(x, w):
return convolve(x.reshape((8, 8)), mode="constant", weights=w).ravel()
X = np.concatenate([X] + [np.apply_along_axis(shift, 1, X, vector) for vector in direction_vectors])
Y = np.concatenate([Y for _ in range(5)], axis=0)
return X, Y
X, y = datasets.load_digits(return_X_y=True)
X = np.asarray(X, "float32")
X, y = nudge_dataset(X, y)
X = minmax_scale(X, feature_range=(0, 1))
X_train, X_test, Y_train, Y_test = train_test_split(X, y, test_size=0.2, random_state=0)
上述代码首先加载了手写数字数据集,然后通过定义的nudge_dataset函数对数据进行了扩充。接着,使用minmax_scale函数将数据缩放到0-1的范围内,并划分了训练集和测试集。
构建了一个包含RBM特征提取器和逻辑回归分类器的分类管道。具体代码如下:
from sklearn.linear_model import LogisticRegression
from sklearn.neural_network import BernoulliRBM
from sklearn.pipeline import Pipeline
logistic = LogisticRegression(solver="newton-cg", tol=1)
rbm = BernoulliRBM(random_state=0, verbose=True)
rbm_features_classifier = Pipeline(steps=[("rbm", rbm), ("logistic", logistic)])
在这段代码中,首先导入了所需的库,然后定义了逻辑回归分类器和RBM模型。最后,将这两个模型组合成一个管道,以便在训练过程中先使用RBM进行特征提取,再使用逻辑回归进行分类。
模型的超参数(学习率、隐藏层大小、正则化)通过网格搜索进行了优化,但在这里为了节省运行时间,不再现网格搜索的过程。以下是设置超参数并训练模型的代码:
from sklearn.base import clone
rbm.learning_rate = 0.06
rbm.n_iter = 10
rbm.n_components = 100
logistic.C = 6000
rbm_features_classifier.fit(X_train, Y_train)
raw_pixel_classifier = clone(logistic)
raw_pixel_classifier.C = 100.0
raw_pixel_classifier.fit(X_train, Y_train)
在训练过程中,首先设置了RBM模型的超参数,然后使用训练集数据训练了RBM-逻辑回归管道。此外,还训练了一个直接在像素特征上进行分类的逻辑回归分类器,以便进行比较。
使用测试集数据对模型进行评估,并输出分类报告。以下是评估代码和结果:
from sklearn import metrics
Y_pred = rbm_features_classifier.predict(X_test)
print("使用RBM特征的逻辑回归:\n%s\n" % (metrics.classification_report(Y_test, Y_pred)))
Y_pred = raw_pixel_classifier.predict(X_test)
print("使用原始像素特征的逻辑回归:\n%s\n" % (metrics.classification_report(Y_test, Y_pred)))
从评估结果可以看出,使用RBM提取的特征在分类准确性上优于直接使用原始像素特征。这表明RBM在特征提取方面具有优势。
最后,可以通过可视化RBM提取的特征来进一步理解模型。以下是可视化代码:
import matplotlib.pyplot as plt
plt.figure(figsize=(4.2, 4))
for i, comp in enumerate(rbm.components_):
plt.subplot(10, 10, i + 1)
plt.imshow(comp.reshape((8, 8)), cmap=plt.cm.gray_r, interpolation="nearest")
plt.xticks(())
plt.yticks(())
plt.suptitle("RBM提取的100个特征", fontsize=16)
plt.subplots_adjust(0.08, 0.02, 0.92, 0.85, 0.08, 0.23)
plt.show()
通过上述代码,可以直观地看到RBM提取的100个特征。这些特征有助于理解模型是如何从原始数据中学习到有用信息的。