近期的研究针对大型语言模型(LLMs)及其对社会角色的响应提出了一些令人关注的问题。这项研究覆盖了2,457个问题和162个社会角色,揭示了人工智能模型中存在的偏见,即倾向于支持性别中立或男性社会角色,而非女性角色。
这项全面的分析聚焦于三个广泛使用的LLMs,检查了它们在一系列社会角色中的表现。令人惊讶的是,当模型被提示与性别中立或男性角色相关,如“导师”、“伴侣”甚至“聊天机器人”时,它们表现出更高的效率。与此形成鲜明对比的是,当面对以女性为中心的角色时,它们的表现显著下降。
这些发现揭示了这些模型中可能存在的编程问题,揭示了一层可能追溯到训练数据的偏见。这种担忧加剧了围绕人工智能的持续伦理辩论,特别是通过机器学习算法无意中延续偏见的问题。
随着人工智能互动的发展,这项研究的影响超出了学术领域。在这些AI模型中识别出的性别偏见引发了关于LLMs开发和部署的关键伦理问题。它强调了迫切需要彻底审查用于训练这些模型的底层算法和数据集。