[论文翻译]使用大型语言模型揭示和减轻心理健康分析中的偏见
大语言模型 (LLM) 的发展已在包括心理健康分析在内的多种应用中展现出强大能力。然而,现有研究主要关注预测性能,对公平性这一关键问题缺乏深入探索,这给弱势群体带来了重大风险。尽管先前研究承认潜在偏见,但并未对这些偏见及其影响进行彻底调查。为填补这一空白,我们系统评估了十种大语言模型在八个不同心理健康数据集上使用多种提示方法时,跨越七种社会因素(如性别、年龄、宗教)的偏见。结果显示,GPT-4 在大语言模型中实现了性能与公平性的最佳整体平衡,尽管在某些情况下仍落后于 Mental RoBERTa 等特定领域模型。此外,我们定制的公平性提示能有效缓解心理健康预测中的偏见,彰显了该领域公平性分析的巨大潜力...