匹兹堡大学的研究者们开发了一种机器学习模型,该模型能够揭示大脑如何识别和分类不同的声音。这项研究的洞见预计将为更好地理解语音识别障碍和改进助听器铺平道路。
机器学习技术在医疗保健领域的应用日益广泛,特别是在预测分析和诊断方面。通过机器学习,可以预测疾病的发展和诊断疾病,从而提高医疗服务的质量和效率。
研究人员将声音识别与面部识别进行了比较。在面部识别中,大脑识别特定的特征,而不是与完美模板匹配。同样,在识别特定声音时,大脑会捕捉到定义特定声音的有用特征。这种机器学习模型将显著增强对声音识别背后的神经处理的理解。
这项研究是理解声音识别生物学和寻找改进方法的关键一步。由于每个人在一生中都会经历一定程度的听力损失,这项研究在治疗语音识别障碍和改进助听器方面具有巨大的意义。此外,声音交流的过程本身就非常迷人,因为它涉及到人类大脑通过声音传达思想的互动。
人类和动物每天都会遇到各种各样的声音,但他们能够相互沟通和理解,包括口音和音调。例如,当听到“好”时,无论说话者的口音或性别如何,都能识别其含义。
为了识别社会动物发出的不同声音,研究团队构建了一个声音处理的机器学习模型。他们在豚鼠听同类交流声音时记录了大脑活动,以测试他们的大脑反应是否与模型相符。当他们听到具有特定类型声音特征的噪音时,负责处理声音的神经元会以电活动的形式点亮。
为了检查模型在现实生活中的表现,豚鼠被暴露于不同的声音信号中。研究人员训练它们走到围栏的不同角落,并根据播放的声音类别获得水果奖励。