本页面展示了一个二维分类示例,其中预测概率的等概率线被清晰地描绘出来。通过学习核函数,我们能够预测分类结果,并展示出分类边界。
本页面展示了DBSCAN聚类算法的实现和评估,包括数据生成、算法应用、结果可视化和性能评估。
本网页介绍了如何使用RBFSampler和Nystroem近似RBF核函数的特征映射,并在手写数字数据集上使用SVM进行分类。比较了在原始空间中使用线性SVM、使用近似映射的线性SVM以及核化SVM的结果。
本文介绍了使用坐标下降法计算Lasso回归路径的过程,包括参数设置、优化函数、以及如何使用Python实现。
本页面展示了如何使用Python和matplotlib库来可视化不同的机器学习损失函数,包括零一损失、合页损失、感知器损失等。
本文介绍了如何使用PolynomialCountSketch高效生成多项式核特征空间近似,以训练近似核化分类器的线性分类器,并在Covtype数据集上进行实验。
本页面展示了如何使用支持向量机(SVM)进行分类,并使用自定义核函数。
本文介绍了机器学习中模型评估和优化的多种方法,包括交叉验证、超参数优化、ROC曲线等关键概念和技术。
本文介绍了Pinball Loss在量化回归中的应用,包括其参数设置、计算方法和示例代码。
本文介绍了SGD算法中常用的三种惩罚函数:L1、L2和弹性网络,并展示了它们在不同参数下的轮廓图。
本文比较了核岭回归(KRR)与支持向量回归(SVR)两种机器学习模型在数据拟合和预测任务中的性能差异。
本页面介绍了最大似然协方差估计器的计算方法和应用示例。
本文比较了随机搜索和网格搜索在优化线性SVM的超参数方面的效率和性能。
本页面介绍了流形学习中的多种降维算法,包括局部线性嵌入、等距映射、多维缩放和t-SNE等方法,并展示了如何在S曲线数据集上应用这些算法。
本页面介绍了如何使用递归特征消除(RFE)技术来评估手写数字识别中各个像素的重要性,并展示了如何通过颜色和注释清晰地可视化特征的重要性排名。
本文介绍了如何使用梯度提升回归模型来处理糖尿病数据集的回归问题,并展示了模型的训练过程、误差计算以及特征重要性的可视化。
本文介绍了随机投影降维技术,包括其理论基础Johnson-Lindenstrauss引理,以及如何通过高斯随机投影和稀疏随机投影来减少数据维度,同时保持数据间距离的近似不变。
本页面介绍了如何计算L1正则化分类器的C参数下限,包括参数说明和示例代码。
本页面介绍了scikit-learn库中用于数据科学和机器学习的各种工具和函数。
本文介绍了如何使用Python中的scikit-learn库来加载和处理文本数据集,包括设置文件编码、随机打乱数据、选择特定文件扩展名等。
本页面介绍了一个用于选择数据子集的工具,它支持多种数据类型和索引方式,适用于数据分析和处理。
本页面介绍了使用AdaBoost算法增强决策树回归模型的过程,包括数据准备、模型训练与预测以及结果可视化。
本文介绍了如何使用标签传播模型在只有少量标签的情况下对手写数字数据集进行分类。
本文详细介绍了D²评分函数,这是一种用于评估分类模型性能的指标,通过比较实际标签和预测概率来计算得分。
本文介绍了如何使用scikit-learn库中的函数将多类别标签转换为二值化形式,以便用于机器学习算法中。
本页面展示了如何使用AdaBoost分类器对非线性可分数据集进行分类,并绘制了决策边界和决策分数的分布图。
本文介绍了如何计算二分类问题中的阳性和阴性似然比,包括它们的定义、计算公式以及在医学诊断中的应用。
本文介绍了scikit-learn 1.0版本的新特性、改进和bug修复。
本网页展示了如何使用信息论标准对高斯混合模型(GMM)进行模型选择,包括协方差类型和模型中组件的数量。
本网页展示了如何使用Python的scikit-learn库中的PartialDependenceDisplay对象来绘制和自定义部分依赖图。