在人工智能领域,即使是最先进的聊天机器人,如ChatGPT和Google Bard,也难免会产生错误信息,这种现象被称为“幻觉”。OpenAI最近的一项突破性发现可能使AI模型更加符合逻辑,从而减少这些幻觉的发生。本文将深入探讨OpenAI的研究,并探索其创新方法。
在AI聊天机器人领域,即使是行业领导者,如ChatGPT和Google Bard,也容易受到幻觉的影响。OpenAI和Google都承认这一问题,并就其聊天机器人可能产生不准确信息的可能性提供披露。这些错误信息的实例引起了人们对错误信息传播的广泛担忧,以及其对社会可能产生的负面影响。
OpenAI的最新研究文章揭示了一个有趣的解决方案来解决幻觉问题。他们提出了一种名为“过程监督”的方法。这种方法为任务的每一步提供反馈,与传统的“结果监督”不同,后者只关注最终结果。通过采用这种方法,OpenAI旨在增强AI模型的逻辑推理能力,并最小化幻觉的发生。
OpenAI使用MATH数据集进行了实验,以测试过程监督的有效性。他们比较了使用过程监督和结果监督训练的模型的性能。发现是惊人的:使用过程监督训练的模型表现出“显著更好的性能”。