TICL: Text-Embedding KNN for Speech in-Context Learning Unlocks Speech Recognition Abilities of Large Multimodal Models

📄 TICL: Text-Embedding KNN for Speech in-Context Learning Unlocks Speech Recognition Abilities of Large Multimodal Models #语音识别 #少样本学习 #多语言 #低资源 #语音大模型 ✅ 7.5/10 | 前25% | #语音识别 | #少样本学习 | #多语言 #低资源 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Haolong Zheng(伊利诺伊大学厄巴纳-香槟分校) 通讯作者:未明确说明(从作者列表和邮箱格式推断三位作者贡献平等,未指定通讯作者) 作者列表:Haolong Zheng(伊利诺伊大学厄巴纳-香槟分校)、Yekaterina Yegorova(伊利诺伊大学厄巴纳-香槟分校)、Mark Hasegawa-Johnson(伊利诺伊大学厄巴纳-香槟分校) 💡 毒舌点评 亮点: 论文以最小的“技术杠杆”(仅用伪标签生成+文本嵌入检索)撬动了大型多模态模型在多种困难语音场景下高达84.7%的性能提升,证明了“好示例”比“多示例”更重要,方法简洁有效且泛化性好。短板: 方法的天花板受限于伪标签质量和检索词典的覆盖度,在处理稀有词汇或复合词时(如中文部分结果恶化)显得力不从心,且对SICL为何有效的深层机制探讨不足,更像一次成功的“炼金术”应用。 📌 核心摘要 要解决的问题: 如何为大型多模态模型(LMM)的语音上下文学习(SICL)选择最有效的上下文示例,以提升其在口音英语、多语言和儿童语音等挑战性任务上的语音识别(ASR)性能。现有方法多采用随机采样,未充分利用示例选择的潜力。 方法核心: 提出TICL方法。其核心是一个三阶段管道:首先用预训练ASR(如Whisper)为测试音频生成伪标签;然后用预训练的文本编码器(如all-mpnet-base-v2)对候选集的真实转录文本进行嵌入,并基于伪标签的嵌入向量,通过欧氏距离检索语义最相近的K个候选示例;最后将这些检索到的(音频,文本)对作为上下文示例,与测试音频一起输入LMM(如Phi-4-MM)生成最终转录。 与已有方法相比新在哪里: 已有基于Whisper的SICL工作使用语音嵌入进行检索,且受上下文窗口限制示例数量较少;后续工作虽利用LMM的大上下文窗口,但多采用随机选择示例。TICL的新颖之处在于:首次在SICL中使用文本嵌入进行语义检索,直接匹配转录内容(而非语音特征)来选择示例,且该方法与具体的LMM架构无关。 主要实验结果: 在三个ASR任务上,TICL均显著优于零样本基线: 口音英语(GLOBE-V2): 相对WER降低最高达79.2% (Phi-4-MM) 和84.7% (Qwen2-Audio)。 多语言(Common Voice): 在Phi-4-MM原生支持的语言(如日、葡)上WER大幅下降(如日语从13.00%降至6.17%),并成功解锁了俄、波、土等原不支持语言的识别能力(如俄语WER从122.75%骤降至20.74%)。 儿童语音(OGI等): 在OGI数据集上WER从16.17%降至8.52%(相对降低47.3%)。 消融研究: 伪标签质量越高,性能越好,但即使使用最差的伪标签,TICL仍远优于零样本;上下文示例数K=4时性能最佳,增加更多示例无益甚至有害。 实际意义: 提供了一种轻量、低成本且即插即用的增强现有大型多模态模型语音识别能力的方法,无需模型微调,通过精心选择上下文示例即可快速适应特定领域或人群,具有实际部署价值。 主要局限性: 方法性能依赖于伪标签的质量和候选检索词典的覆盖度与准确性。在遇到罕见词汇、复合词或伪标签错误较大时(如论文中提到的中文案例),检索可能失效甚至引入噪声,导致性能下降。论文未深入分析SICL的内在工作机理。 🏗️ 模型架构 TICL并非一个独立模型,而是一个应用于现有大型多模态模型(LMM)的上下文选择与构造管道。其整体流程如图1所示,可分为以下阶段: ...

2026-04-29