在数据科学领域,尤其是在自然语言处理(NLP)的应用中,偏见和公正性是两个至关重要的概念。偏见指的是模型对于受保护属性的刻板/不公正关联,或者是模型对特定群体的性能不佳。偏见缓解则是减少这些刻板/不公正关联的严重性以及不同群体之间模型性能差异的过程。公正性则关注于确保模型在受保护特征方面对所有人群体都表现公平。
本次数据科学研讨会将提供一个关于NLP系统中偏见如何产生的概览,以及为什么识别这些偏见至关重要。会议还将涵盖识别和减轻这些偏见的技术,以及如何评估公正性。
演讲者Shantam目前在麦肯锡公司工作,拥有超过5年的NLP及相关问题工作经验。他目前正在印度理工学院焦特布尔分校攻读人工智能硕士学位,并即将开始他的图神经网络研究。Shantam业余时间喜欢写诗,目前还在尝试街头风格的摄影。