Enhancing Audio Question-Answering Performance Through Log-Likelihood Guided Reward Functions
📄 Enhancing Audio Question-Answering Performance Through Log-Likelihood Guided Reward Functions #音频问答 #强化学习 #多模态模型 #基准测试 🔥 8.5/10 | 前25% | #音频问答 | #强化学习 | #多模态模型 #基准测试 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Sam Blouir (Amazon) 通讯作者:未说明 作者列表:Sam Blouir (Amazon), Ganesh Ramachandra Kini (Amazon), Qingming Tang (Amazon), Raphael Petegrosso (Amazon), Chieh-Chi Kao (Amazon), Ankur Gandhe (Amazon), Chao Wang (Amazon) 💡 毒舌点评 亮点:论文提出的“概率比奖励”设计巧妙,将传统RLVR中非黑即白的准确率信号转化为一个能反映模型对正确答案相对置信度的连续信号,为“接近正确”但未得分的样本提供了有效学习信号,这在奖励稀疏的强化学习微调中至关重要。 短板:所有实验仅在单一的MMAU基准上完成,且基础模型固定为Qwen2.5-Omni-7B,该方法在其他音频任务(如开放式QA、不同声源类型)或不同规模的模型上的效果和泛化能力有待验证。 📌 核心摘要 要解决什么问题:现有的强化学习与验证奖励(RLVR)方法在训练音频问答系统时,通常只使用格式是否正确和答案是否完全匹配的二元奖励信号,这种稀疏的信号对模型几乎正确但未得分的样本无法提供有效的学习指导。 方法核心是什么:提出了一种新的基于对数几率(log-odds)的奖励函数。该函数在生成推理链()之后、答案文本生成之前,计算模型对正确答案选项与最可能的错误答案选项的标准化对数似然之差,以此作为奖励信号。这鼓励模型通过推理链增加正确答案相对于最强干扰项的概率优势。 与已有方法相比新在哪里:新在将音频问答的RL训练奖励从简单的二元正确性/格式惩罚,升级为利用模型自身策略分布的“软”概率比奖励。这提供了更密集、更有方向性的梯度信号。 主要实验结果如何:在MMAU测试集(mini版)上,使用所提方法微调的模型平均准确率达到78.3%,优于使用传统“准确率+格式”奖励的基线(76.3%)和未微调的Qwen2.5-Omni-7B基础模型(70.4%)。消融实验表明,“log-odds”奖励变体优于“概率”奖励和“提升”奖励。 关键实验结果表格: 模型/方法 基础模型 Sound (%) Music (%) Speech (%) 平均准确率 (%) log-odds (ours) Qwen2.5-Omni 83.4 73.3 78.2 78.3 accuracy + format (our setup) Qwen2.5-Omni 81.6 70.9 76.4 76.3 Omni-R1 [9] Qwen2.5-Omni 81.7 73.4 76.0 77.0 Qwen2.5-Omni-7B (base) – 77.8 61.1 72.4 70.4 Step-Audio-2 [17] – 84.0 73.6 75.1 77.6 消融实验表格: 奖励变体 平均准确率 (%) — — log-odds (ours) 78.3 (从主表) prob 77.2 lift 77.0 实际意义是什么:为训练更有效的多选题音频问答系统提供了一种新的、更优的强化学习奖励设计范式,证明了在RLVR框架下,超越二元信号的似然度引导能提升模型的音频推理能力。 主要局限性是什么:1) 验证实验仅限于MMAU这一个复杂的音频问答基准;2) 方法的核心组件(对数似然计算)依赖于一个具有较强基础能力的预训练多模态大模型(如Qwen2.5-Omni),在更小的模型上是否有效未知;3) 论文未讨论该奖励函数对开放式生成任务(如音频描述)的适用性。 🏗️ 模型架构 论文并未提出一个新的端到端模型架构,而是设计了一个针对现有多模态大模型(M-LLM)进行强化学习微调的训练框架。 ...