Exploring Fine-Tuning Of Large Audio Language Models For Spoken Language Understanding Under Limited Speech Data
📄 Exploring Fine-Tuning Of Large Audio Language Models For Spoken Language Understanding Under Limited Speech Data #语音理解 #迁移学习 #低资源 #多语言 🔥 8.0/10 | 前25% | #语音理解 | #迁移学习 | #低资源 #多语言 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Youngwon Choi (MAUM AI Inc., Republic of Korea) 通讯作者:Huu-Kim Nguyen (∗ 作者列表中标注星号,现单位为 Atmanity Inc., USA) 作者列表: Youngwon Choi (MAUM AI Inc., Republic of Korea) Jaeyoon Jung (MAUM AI Inc., Republic of Korea & Soongsil University, Republic of Korea) Hyeonyu Kim (MAUM AI Inc., Republic of Korea) Huu-Kim Nguyen (MAUM AI Inc., Republic of Korea → 现 Atmanity Inc., USA) Hwayeon Kim (MAUM AI Inc., Republic of Korea) 💡 毒舌点评 这篇论文像一份非常扎实的“工程实验报告”,系统地厘清了“当语音标注数据很少时,怎么微调音频大模型最划算”这个现实问题,结论(转录文本先行、加少量语音、课程学习)对实践者极具指导性。短板在于,它本质上是方法组合与验证,而非底层算法的原创突破,且所有实验仅基于Qwen2-Audio-7B一个模型,结论的普适性存疑。 ...