本文介绍了高斯过程回归(GPR)在数据噪声水平估计、核岭回归比较、CO2水平预测以及分类问题中的应用。
本文通过Elastic-Net回归模型探讨了正则化参数对训练和测试数据集性能的影响,并使用解释方差R^2作为性能度量。
本文介绍了多种机器学习中的分类器和回归器,包括线性分类器、回归器、变量选择模型、鲁棒回归器以及广义线性模型等。
本页面展示了如何使用Python和matplotlib库来可视化不同的机器学习损失函数,包括零一损失、合页损失、感知器损失等。
本文介绍了如何使用一个函数来计算一个点与一组点之间的最小距离,包括参数设置和代码示例。
本文介绍了如何通过随机排列特征值的方法来评估模型中各个特征的重要性,并探讨了该方法的优势和局限性。
本网页展示了不同在线求解器在手写数字数据集上的性能比较。
本文介绍了多种数据预处理技术,包括二值化、特征缩放、编码器等,旨在帮助数据科学家和工程师更好地准备数据以进行机器学习。
本文介绍了如何使用scikit-learn库中的管道和列转换器来构建和可视化复杂的机器学习模型。
本文通过分析神经网络的权重,探讨学习行为,使用MNIST数据集训练MLP分类器,并通过可视化权重矩阵来理解学习过程。
本网页通过SparseCoder估计器比较了不同的稀疏编码方法,并探讨了使用不同宽度原子的重要性以及学习字典以适应特定信号类型的必要性。
本文比较了主成分分析(PCA)和因子分析(FA)在不同噪声条件下的性能,并探讨了模型选择和协方差估计。
本示例展示了如何使用邻域成分分析(NCA)来学习一个距离度量,以最大化最近邻分类的准确性。
本页面展示了如何使用随机梯度下降(SGD)训练线性支持向量机(SVM)分类器,并绘制出在两个类别可分数据集中的最大分隔超平面。
本文介绍了谱嵌入算法,即Laplacian Eigenmaps,这是一种基于图拉普拉斯矩阵的特征向量进行数据降维的方法。
本文介绍了如何使用成本复杂性参数来控制决策树的剪枝,并通过实验展示了不同参数值对模型性能的影响。
局部线性嵌入(Locally Linear Embedding, LLE)是一种非线性降维技术,用于数据的可视化和分析。本文介绍了LLE的基本概念、参数设置以及如何在Python中使用。
本网页介绍了数据预处理和特征提取的基本概念、方法和技术,包括标准化、归一化、编码分类特征、缺失值处理、多项式特征生成、无监督降维等。
本文介绍了一种评估降维后数据信任度的方法,该方法基于局部结构的保留程度,适用于多种降维技术。
本文介绍了零一分类损失函数的计算方法,包括参数说明、返回值以及在多标签分类中的应用。
本文介绍了如何使用RBFSampler和Nystroem方法来近似径向基函数核的特征映射,并在手写数字数据集上使用SVM进行分类。
本文介绍了如何使用核主成分分析(KernelPCA)对图像进行去噪处理,并通过比较精确重建和核PCA重建的结果,展示了去噪效果。
本文介绍了随机搜索和减半随机搜索在机器学习模型参数优化中的应用,并提供了代码示例。
本文介绍了高斯混合模型在非高斯随机变量混合数据集上的表现,通过正弦曲线上的噪声点数据,探讨了不同模型的选择和效果。
本网页介绍了高斯混合模型(GMM)和贝叶斯高斯混合模型(使用狄利克雷过程作为先验)的比较,包括它们的工作原理和在低维空间中的可视化展示。
本页面展示了如何使用单类SVM进行异常检测,包括数据生成、模型训练、预测及结果可视化。
本页面展示了如何使用支持向量机(SVM)处理带有权重的样本数据,并可视化决策边界的变化。
本文介绍了如何使用决策树对鸢尾花数据集的特征对进行训练,并展示了决策树的结构和决策边界。
本文介绍了开源项目scikit-learn的决策制定过程,包括社区成员如何反馈、互动以及不同角色的职责和决策方式。
本文介绍了scikit-learn 1.0版本的新特性、改进和bug修复,包括API的变化、新引入的变换器和回归器等。