Do LLM Decoders Listen Fairly? Benchmarking How Language Model Priors Shape Bias in Speech Recognition
📄 Do LLM Decoders Listen Fairly? Benchmarking How Language Model Priors Shape Bias in Speech Recognition #语音识别 #语音大模型 #鲁棒性 #基准测试 ✅ 7.5/10 | 前25% | #语音识别 | #语音大模型 | #鲁棒性 #基准测试 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Srishti Ginjala(The Ohio State University) 通讯作者:未说明 作者列表:Srishti Ginjala(The Ohio State University, Columbus, OH, USA)、Eric Fosler-Lussier(The Ohio State University, Columbus, OH, USA)、Christopher W. Myers(Air Force Research Laboratory, USA)、Srinivasan Parthasarathy(The Ohio State University, Columbus, OH, USA) 💡 毒舌点评 这篇论文的亮点在于其极其系统和扎实的实验设计,通过控制变量(三代架构、五个人口统计轴、十二种退化条件)揭示了LLM解码器对ASR公平性影响的复杂图景,尤其是“严重退化压缩公平差距”和“静音注入放大Whisper口音偏见”等反直觉发现极具启发性。但短板在于,它本质上是一个大规模基准测试和现象分析,而非提出一种解决公平性问题的新方法,其结论的普适性受限于仅评估了英语语音和特定的合成退化条件。 ...