FLiP: Towards understanding and interpreting multimodal multilingual sentence embeddings

📄 FLiP: Towards understanding and interpreting multimodal multilingual sentence embeddings #模型评估 #线性模型 #多语言 #多模态模型 📝 评分:5.5/10 | arxiv 👥 作者与机构 第一作者:Santosh Kesiraju (布尔诺理工大学,Speech@FIT实验室) 通讯作者:Petr Schwarz (布尔诺理工大学,Speech@FIT实验室,根据联系邮箱推断) 其他作者: Bolaji Yusuf (布尔诺理工大学,Speech@FIT实验室) Šimon Sedláček (布尔诺理工大学,Speech@FIT实验室) Oldřich Plchot (布尔诺理工大学,Speech@FIT实验室) 💡 毒舌点评 亮点:提供了一把“线性手术刀”,干净利落地剖开了SONAR、LaBSE这些黑盒嵌入,直观展示了里面到底塞了哪些词,还量化了“英语霸权”在嵌入空间中的统治力。槽点:本质上还是个高级线性探针,创新天花板明显;主要发现“多语言模型更偏爱英语”这事儿,大家心里其实都有数,论文只是用更漂亮的方式证实了它。 📌 核心摘要 本文提出FLiP,一种因子化线性投影模型,旨在理解并解释多语言、多模态句子嵌入空间(如SONAR, LaBSE, Gemini)。核心思想是将嵌入空间的解释转化为一个线性关键词提取任务:通过一个简单的线性投影,从句子嵌入向量中恢复出构成该句子的词汇。实验表明,训练良好的FLiP模型能从嵌入中回忆起75%以上的词汇内容,显著优于非因子化基线。利用这一工具,作者系统性地诊断了不同嵌入模型的跨模态对齐(语音-文本)和跨语言对齐性能,揭示了这些模型普遍存在的英语偏向性,即语义的线性表示在英语中最清晰,随语言距离增大而衰减。FLiP为研究者提供了一种无需依赖下游任务即可内在评估嵌入质量的诊断工具。 🏗️ 模型架构 FLiP的整体架构是一个因子化的对数线性模型,其目标是学习一个从句子嵌入空间到词汇空间的线性映射,以提取关键词。 完整输入输出流程: 输入:一个预训练的句子嵌入向量 t (来自文本) 或 s (来自语音),维度为 d (如SONAR为1024,LaBSE为768)。 投影:将输入嵌入通过一个因子化的投影矩阵 W = AB 进行映射。 A:维度为 |V| x r,可视为一个词嵌入矩阵,其中 |V| 是词汇表大小(如100K),r 是因子化秩(如512)。 B:维度为 r x d,是一个从模态/语言空间到潜在语义空间的投影矩阵。 计算:z = b + A * (B * u),其中 b 是偏置向量,u 是输入嵌入。B*u 将输入映射到 r 维潜在空间,A 再将其映射到 |V| 维的词汇空间,得到 logits z。 输出概率:对 logits z 应用 softmax 函数,得到词汇表上的概率分布 θ。 关键词提取:在推理时,直接选取 logits z 中数值最大的 k 个索引,映射回词汇表,得到提取的关键词。无需优化。 关键设计选择理由: ...

2026-04-21