近年来,元学习(Meta-learning)或称为“学习如何学习”,在人工智能领域内引起了极大的关注。与传统的人工智能方法不同,元学习不是从零开始使用固定的学习算法来解决问题,而是通过考虑多个学习经历来改进算法。这种范式提供了解决深度学习传统挑战的机会,包括数据和计算瓶颈以及泛化问题。本调查描述了当前元学习的现状。首先讨论了元学习的定义,并将其与迁移学习、超参数优化等相关领域进行了对比。然后,提出了一个新的分类体系,为当今元学习方法提供了更全面的划分。探讨了元学习在多轮试验和强化学习等领域的有前途的应用和成就。
学习模型的性能取决于其训练数据集、算法和参数。为了找到表现最佳的算法和算法参数,需要进行许多实验。元学习方法帮助减少实验次数,优化实验过程,从而在更短的时间内获得更好的预测结果。
元学习可以用于各种机器学习模型,例如少样本学习、强化学习、自然语言处理等。元学习算法通过输入机器学习算法的输出和元数据来进行预测。元学习算法可以学习如何利用机器学习算法的最佳预测来做出更好的预测。在计算机科学中,元学习的研究和方法始于20世纪80年代,Jürgen Schmidhuber和Yoshua Bengio等人的工作使其流行起来。
元学习,被描述为“学习如何学习”,是计算机科学领域中机器学习的一个子集。它通过基于实验结果改变学习算法的某些方面来改进学习算法的结果和性能。元学习帮助研究人员理解哪些算法可以从数据集中生成最佳/更好的预测。元学习算法使用学习算法的元数据作为输入,然后进行预测,并提供有关这些学习算法性能的信息作为输出。例如,在学习模型中的图像元数据可以包括其大小、分辨率、风格、创建日期和所有者等。
在元学习中,系统实验设计是最重要的挑战。机器学习算法存在一些问题,例如需要大量数据集进行训练、在训练阶段进行多次试验/实验导致高运营成本、寻找最佳模型需要很长时间。元学习可以通过优化和寻找表现更好的学习算法来帮助机器学习算法应对这些挑战。
在过去五年中,对元学习的兴趣一直在增长,特别是在2017年之后,这种增长加速了。随着深度学习和高级机器学习算法的使用增加,训练这些算法的难度增加了对元学习研究的兴趣。
通常,元学习算法使用机器学习算法的输出(即模型预测)和元数据进行训练。训练完成后,其技能被用于测试,并用于做出最终预测。元学习包括观察不同机器学习模型在学习任务上的表现、从元数据中学习、新任务的快速学习过程等任务。例如,可能想要训练一个机器学习模型来标记不同品种的狗。首先,需要一个标注好的数据集。不同的机器学习模型在训练集上构建,它们可能只关注数据集的某些部分。使用元训练过程来提高这些模型的性能,最后,元训练模型可以用来根据其在以前训练过程中的经验,从几个例子中构建新模型。
元学习在机器学习特定领域中得到应用。元学习中有不同方法,如基于模型的、基于度量的和基于优化的方法。以下是元学习领域中一些常见的方法和方法的简要说明。
度量学习意味着学习预测的度量空间。这种模型在多重分类任务中提供了良好的结果。
神经网络使用几个例子进行训练,以便模型更快地适应新任务。MAML是一种通用的优化和任务不可知算法,用于训练模型参数,以便快速学习,只需少量梯度更新。
递归神经网络(RNN)是人工神经网络的一种类型。它们用于各种机器学习问题,例如具有序列数据或时间序列数据的问题。RNN模型通常用于语言翻译、语音识别和手写识别。在元学习中,RNN被用作创建一个可以从数据集中顺序收集数据并将其作为新输入处理的递归模型的替代方案。
堆叠是集成学习的子领域,也用于元学习模型。监督和无监督学习模型也从复合中受益。堆叠包括以下步骤:使用可用数据训练学习算法,创建合并算法(例如,元学习模型或逻辑回归模型)以组合这些学习算法的所有预测,这些预测被称为集成成员,使用合并算法产生最终预测。
元学习算法被广泛用于增强机器学习解决方案。元学习的优势包括更高的模型预测准确性、优化学习算法(例如,优化超参数以获得最佳结果,通常由人类执行的优化任务现在可以使用元学习算法执行)、帮助学习算法更好地适应变化条件、为设计更好的学习算法提供线索、更快更便宜的训练过程、支持从较少的例子中学习、通过限制必要的实验增加学习过程的速度、构建更泛化的模型(学习解决许多任务,而不仅仅是一个任务:元学习不专注于在一个特定数据集上训练一个模型)。