The 3rd Clarity Prediction Challenge: A Machine Learning Challenge for Hearing aid Speech Intelligibility Prediction

📄 The 3rd Clarity Prediction Challenge: A Machine Learning Challenge for Hearing aid Speech Intelligibility Prediction #语音增强 #预训练 #基准测试 #模型评估 #数据集 ✅ 7.5/10 | 前25% | #语音增强 | #预训练 | #基准测试 #模型评估 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Jon Barker (谢菲尔夫大学计算机系) 通讯作者:未说明 作者列表:Jon Barker (谢菲尔夫大学计算机系), Michael A. Akeroyd (诺丁汉大学医学院), Trevor J. Cox (索尔福德大学声学研究中心), John F. Culling (卡迪夫大学心理学系), Jennifer Firth (诺丁汉大学医学院), Simone Graetzer (索尔福德大学声学研究中心), Graham Naylor (诺丁汉大学医学院) 💡 毒舌点评 亮点:该论文最大的贡献是构建并开源了一个目前规模最大、最具生态效度的助听器语音可懂度预测数据集与基准,其精心设计的“三轮渐进式挑战”和“评估集完全未见”模式,为评估模型的真实泛化能力设立了黄金标准。短板:作为一篇挑战赛总结报告,它更侧重于结果汇编与现象分析(如听众变异),而对顶尖系统的具体技术路径、失败案例的深层原因挖掘深度有限,更像是一份详尽的“官方赛事白皮书”,而非一篇聚焦于某个算法突破的学术论文。 ...

2026-04-29

The Curious Case of Visual Grounding: Different Effects for Speech-and Text-Based Language Encoders

📄 The Curious Case of Visual Grounding: Different Effects for Speech-and Text-Based Language Encoders #多模态模型 #自监督学习 #对比学习 #语音表示分析 #跨模态表示学习 🔥 8.0/10 | 前25% | #模型评估 | #对比学习 | #多模态模型 #自监督学习 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Adrian Sauter (Human-Centered AI, Helmholtz Munich;原单位:Institute for Logic, Language and Computation, University of Amsterdam) 通讯作者:未明确说明,论文列出三位作者且无标注,推测为Willem Zuidema与Marianne de Heer Kloots(阿姆斯特丹大学)。 作者列表:Adrian Sauter(Human-Centered AI, Helmholtz Munich;University of Amsterdam)、Willem Zuidema(Institute for Logic, Language and Computation, University of Amsterdam)、Marianne de Heer Kloots(Institute for Logic, Language and Computation, University of Amsterdam) 💡 毒舌点评 亮点:论文的实验设计非常巧妙,利用精心构造的音素和语义聚类数据集,结合全局(CKA)与局部(词对、聚类)分析方法,得出了一个反直觉且重要的结论——视觉语境化对语音模型语义结构的破坏性影响。 短板:结论可能局限于特定的模型对(wav2vec2/FaST-VGS+与BERT/VG-BERT)和英语单词级设置,对更广泛的架构、语言及句子级场景的泛化性有待验证;且分析聚焦于表示空间的几何性质,与下游任务性能的关联未被实证。 ...

2026-04-29

The Impact of Audio Watermarking on Audio Anti-Spoofing Countermeasures

📄 The Impact of Audio Watermarking on Audio Anti-Spoofing Countermeasures #音频深度伪造检测 #领域适应 #知识蒸馏 #音频水印 #音频安全 🔥 8.5/10 | 前25% | #音频深度伪造检测 | #领域适应 | #知识蒸馏 #音频水印 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.8 | 置信度 高 👥 作者与机构 第一作者:Zhenshan Zhang(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心) 通讯作者:Ming Li(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心, ming.li369@dukekunshan.edu.cn) 作者列表:Zhenshan Zhang(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心)、Xueping Zhang(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心)、Yechen Wang(OfSpectrum, Inc.)、Liwei Jin(OfSpectrum, Inc.)、Ming Li(杜克昆山大学多模态智能系统苏州重点实验室, 数字创新研究中心) 💡 毒舌点评 亮点:选题填补了一个重要的认知空白——系统量化了“水印”这种合法但普遍存在的人为扰动对反欺骗系统的“无差别攻击”效果,实验设计严谨(控制水印比例、类型分布),结论可靠。提出的KPWL框架在“已知水印”适应上取得了立竿见影的效果,思路清晰实用。 短板:在“未见水印”场景下的性能反而下降,暴露了当前方法对水印特异性的过拟合,极大限制了其在真实世界(水印类型未知且多样)中的应用价值,也说明“领域适应”的本质挑战并未被彻底解决。 🔗 开源详情 代码:论文明确提供了代码仓库链接:https://github.com/Alphawarheads/Watermark_Spoofing.git。 模型权重:论文未提及是否公开预训练的模型权重(如基线XLSR+SLS或KPWL适应后的模型)。 数据集:论文指出构建了“Watermark-Spoofing”数据集,并提供了获取方式(通过上述GitHub仓库),表明数据集是公开的。 Demo:论文中未提及在线演示。 复现材料:论文详细说明了数据集构建协议(水印方法、比例)、训练配置(优化器、学习率、轮数、损失函数超参数)、评估设置,复现信息充分。 论文中引用的开源项目:引用了ASVspoof 2019/2021数据集[12,20]、In-the-Wild数据集[21]、多种水印方法(WavMark[4], Timbre[5], AudioSeal[13]等)、反欺骗模型(XLSR[6], SLS[9], Nes2Net[10])以及数据增强工具RawBoost[28]。 📌 核心摘要 问题:本文首次研究了广泛使用的音频水印技术(为版权保护设计)对语音反欺骗(深度伪造检测)系统性能的影响,发现这种影响之前被完全忽视。 方法核心:构建了包含多种手工和DNN水印的“Watermark-Spoofing”数据集,并系统评估了现有模型性能下降的程度。提出名为“知识保留水印学习”(KPWL)的适应框架,通过在冻结前端(XLSR)和分类器的情况下微调中间层,并结合对称知识蒸馏与参数锚定,使模型能适应水印引入的分布偏移。 创新:首次揭示了音频水印是反欺骗系统面临的一种新的、未被研究的领域偏移源;首次构建了用于评估和缓解此问题的专用数据集与基准;提出了首个旨在同时适应水印并保留原始域检测能力的专用框架。 实验结果:在ASVspoof 2021 LA数据集上,当75%的样本被水印时,基线模型(XLSR+SLS)的EER从3.02%上升至3.68%。KPWL模型在相同条件下将EER降至3.21%,同时在干净数据上保持3.06%(与基线3.02%接近)。然而,在“未见水印”评估中,基线模型在75%水印(LA21)下EER为9.94%,而KPWL模型恶化至11.22%。 实际意义:提醒反欺骗系统开发者需考虑水印带来的鲁棒性挑战;为构建抗水印污染的反欺骗系统提供了首个基准和初步解决方案;揭示了水印技术可能对语音安全生态产生的意外副作用。 主要局限性:KPWL框架在应对未见过的水印类型时效果不佳甚至有害,表明当前方法的适应能力局限于训练时接触过的特定水印,泛化能力有待突破。 🏗️ 模型架构 本文的核心模型架构并非提出一种全新的端到端神经网络,而是提出了一种训练策略与框架(KPWL),用于适应现有的反欺骗模型以应对水印干扰。以论文中作为骨干的 XLSR+SLS 模型为例,其整体流程与KPWL框架的适配如下: ...

2026-04-29

The Muse Benchmark: Probing Music Perception and Auditory Relational Reasoning in Audio LLMs

📄 The Muse Benchmark: Probing Music Perception and Auditory Relational Reasoning in Audio LLMs #音乐理解 #基准测试 #音频大模型 #模型评估 🔥 8.5/10 | 前25% | #音乐理解 | #基准测试 | #音频大模型 #模型评估 学术质量 6.2/7 | 选题价值 1.5/2 | 复现加成 0.7 | 置信度 高 👥 作者与机构 第一作者:Brandon James Carone(纽约大学心理学系,音乐与音频研究实验室) 通讯作者:未说明 作者列表:Brandon James Carone(纽约大学心理学系,音乐与音频研究实验室)、Iran R. Roman(伦敦玛丽女王大学电子电气工程与计算机科学学院,多模态AI中心)、Pablo Ripollés(纽约大学心理学系,音乐与音频研究实验室) 💡 毒舌点评 亮点在于它像一把精准的手术刀,切开了当前音频大模型“音乐理解”的华丽外衣,暴露出它们在真正的音乐关系推理(如转调、节拍感知)面前脆弱不堪的内核。短板则是论文止步于“诊断”而未开出“药方”——它证明了现有范式和提示技巧的局限,但对于如何从根本上构建具备音乐不变性表示的模型,讨论略显不足。 🔗 开源详情 代码:提供了论文中提到的GitHub仓库链接(github.com/brandoncarone/MUSE_music_benchmark),用于评估脚本和任务描述。 模型权重:论文中未提及提供新模型权重,评估的是现有公开模型(Gemini, Qwen, Audio Flamingo 3)。 数据集: 200段音乐刺激已公开,提供了Airtable链接。 人类被试实验数据已公开,提供了OSF存储库链接,并设置了只读访问权限。 Demo:论文中未提及在线演示。 复现材料:提供了刺激制作工具和参数(Logic Pro X,具体设备型号和插件)、完整的评估方法(提示策略、few-shot示例、系统指令的摘要在表A中)以及人类实验的详细流程。 论文中引用的开源项目:评估的模型均为外部开源或公开API项目(Gemini 2.5, Qwen2.5-Omni, Audio Flamingo 3)。使用了PsychoPy进行人类实验。 📌 核心摘要 解决的问题:现有针对音频大语言模型的评测多集中于表层分类任务,无法有效评估其对音乐深层结构(如音高不变性、调性层级、节奏分组)的感知和关系推理能力。 方法核心:构建了名为“MUSE”的音乐理解与结构评估基准,包含10项任务,分为“初级”(基础感知与不变性)和“高级”(需要音乐理论知识的推理)两个层级,并系统性地评估了四个SOTA模型(Gemini Pro/Flash, Qwen2.5-Omni, Audio Flamingo 3)在“独立”和“思维链(CoT)”提示下的表现,同时与200名人类被试进行对比。 新在哪里:与现有基准不同,MUSE的任务设计深深植根于音乐认知科学,旨在探测模型是否真正理解了音乐的“结构”而非仅仅“标签”。它首次对多个前沿模型在关系推理任务上进行了系统性的、与人类对标的横向比较。 主要实验结果:模型表现方差极大,且普遍存在严重缺陷。例如,在旋律形状识别任务中,Qwen2.5-Omni的准确率仅为23.33%,低于25%的随机水平(见表2)。最强模型Gemini Pro在初级任务上接近人类专家(如怪音检测100%),但在高级推理任务(如节拍识别46.67%)上远低于人类专家(73.30%)。CoT提示策略效果不稳定,常带来性能下降。 实际意义:MUSE为评估和推动具备真正音乐理解能力的AI系统提供了一个关键的诊断工具和基准。它明确指出,提升模型能力可能需要从架构和训练范式上突破,而不仅仅是缩放规模或优化提示。 主要局限性:基准测试本身无法指明解决路径。论文揭示了差距,但对于如何设计能学习音乐不变表示的模型,提出的建设性方案有限。此外,人类“专家”样本量较小(N=6),可能影响对比的统计效力。 🏗️ 模型架构 本文并非提出一个新的模型架构,而是对现有音频大语言模型进行系统性评测的框架论文。因此,其核心“架构”是评测系统本身。评测流程如下: ...

2026-04-29

The Role of Prosodic and Lexical Cues in Turn-Taking with Self-Supervised Speech Representations

📄 The Role of Prosodic and Lexical Cues in Turn-Taking with Self-Supervised Speech Representations #语音对话系统 #自监督学习 #语音活动检测 #语音表示学习 ✅ 7.5/10 | 前25% | #语音对话系统 | #自监督学习 | #语音活动检测 #语音表示学习 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Sam O’Connor Russell(都柏林三一学院工程学院) 通讯作者:未说明 作者列表:Sam O’Connor Russell(都柏林三一学院工程学院)、Delphine Charuau(都柏林三一学院工程学院)、Naomi Harte(都柏林三一学院工程学院) 💡 毒舌点评 本文巧妙地将神经科学中的“声音相关噪声”范式移植到语音轮次预测的可解释性分析中,像做手术一样干净地分离了韵律和词汇线索,方法论上值得称赞。然而,结论“仅韵律就够了”可能过于乐观,毕竟实验中的“韵律匹配噪声”在真实世界的噪声环境下难以复现,且模型在复杂对话场景中是否仍能如此可靠地依赖单一线索存疑。 🔗 开源详情 代码:论文中提供了代码仓库链接:github.com/russelsa/noise_generation_ICASSP-。 模型权重:未提及是否公开预训练好的VAP模型或S3R权重。 数据集:使用CANDOR语料库,论文未提及是否提供处理后的数据版本或获取方式。 Demo:未提及。 复现材料:论文详细说明了训练超参数(学习率、batch size、epoch数)、vocoder参数、评估指标和划分方法,提供了充分的复现细节。 引用的开源项目:主要依赖WORLD vocoder、Whisper(用于计算WER)、CPC和wav2vec 2.0预训练模型。 📌 核心摘要 要解决的问题:基于自监督语音表示(S3R)的轮次预测模型性能优异,但其决策依赖于语音中的哪些线索(韵律 vs. 词汇)尚不清楚,这限制了模型的可解释性、隐私保护和轻量化潜力。 方法核心:引入一种基于WORLD vocoder的控制方法,能够干净地生成仅保留韵律(去除词汇可懂度)或仅保留词汇(平滑韵律)的语音,用于系统性地探究S3R模型(主要是VAP模型)的线索依赖关系。 与已有方法相比新在哪里:不同于以往通过简单滤波或添加背景噪声(会同时破坏多种线索)的研究,该方法能独立、可控地操纵语音的韵律和词汇成分,提供了更干净的实验条件。研究范围从单一S3R(CPC)扩展到了wav2vec2.0,增强了结论的普适性。 主要实验结果: 在纯净语音上训练的VAP模型,在测试时面对仅保留韵律的噪声语音(WER>100%),仍能保持较高的轮次预测准确率(S/H-Pred平衡准确率≈70%,见表2),接近纯净语音性能的91%(图4)。 相反,去除韵律(平滑音高和强度)后,性能虽下降但仍显著高于随机水平(表2)。 当一种线索被破坏时,模型无需重新训练即可利用另一种线索,证明两种线索在S3R编码中相互独立(图2)。这一结论在wav2vec2.0前端上同样成立。 实际意义:该发现为设计轻量化、仅依赖韵律的轮次预测模型提供了理论支持,此类模型具有计算高效和保护语音隐私(去除可识别词汇内容)的双重优势。 主要局限性:研究仅在英语对话语料库(CANDOR)上进行,跨语言泛化性未验证。所使用的“韵律匹配噪声”是一种受控实验条件,与真实世界的噪声干扰存在差异。 🏗️ 模型架构 论文主要分析的对象是语音活动投影(Voice Activity Projection, VAP)模型,一个基于S3R的轮次预测模型。其架构如下: ...

2026-04-29

The Singing Voice Conversion Challenge 2025: From Singer Identity Conversion to Singing Style Conversion

📄 The Singing Voice Conversion Challenge 2025: From Singer Identity Conversion to Singing Style Conversion #歌唱语音转换 #基准测试 #数据集 #开源工具 ✅ 7.0/10 | 前50% | #歌唱语音转换 | #基准测试 | #数据集 #开源工具 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 0.3 | 置信度 高 👥 作者与机构 第一作者:Lester Phillip Violeta(Nagoya University, Japan) 通讯作者:未说明 作者列表:Lester Phillip Violeta(Nagoya University, Japan),Xueyao Zhang(The Chinese University of Hong Kong, Shenzhen, China),Jiatong Shi(Carnegie Mellon University, USA),Yusuke Yasuda(National Institute of Informatics, Japan),Wen-Chin Huang(Nagoya University, Japan),Zhizheng Wu(The Chinese University of Hong Kong, Shenzhen, China),Tomoki Toda(Nagoya University, Japan) 💡 毒舌点评 这篇论文的核心价值在于清晰地将“歌唱风格转换”确立为一个独立的、系统性的研究基准,并提供了精心设计的任务和评估框架,这对推动领域从单纯的“歌手克隆”向更精细的控制迈进具有导航意义。然而,作为一项挑战赛报告,其主要贡献在于提出问题、组织比赛和总结现有方法的表现,而非提出一个能显著超越现有技术的新模型或算法,论文中也坦承“歌唱风格转换仍然挑战重重”,未能给出引领性的解决方案。 ...

2026-04-29

The Structured Output Benchmark: A Multi-Source Benchmark for Evaluating Structured Output Quality in Large Language Models

📄 The Structured Output Benchmark: A Multi-Source Benchmark for Evaluating Structured Output Quality in Large Language Models #基准测试 #模型评估 #大语言模型 #数据集 #跨模态 ✅ 7.0/10 | 前25% | #基准测试 | #大语言模型 | #模型评估 #数据集 | arxiv 学术质量 6.0/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 高 👥 作者与机构 第一作者:Abhinav Kumar Singh(JigsawStack, Inc.) 通讯作者:未说明 作者列表:Abhinav Kumar Singh(JigsawStack, Inc., New Delhi, India),Harsha Vardhan Khurdula(JigsawStack, Inc., San Francisco, CA, USA),Yoeven D Khemlani(JigsawStack, Inc., San Francisco, CA, USA),Vineet Agarwal(JigsawStack, Inc., Durgapur, WB, India) 💡 毒舌点评 这篇论文直击了大模型应用中的一个真实痛点:生成的JSON格式完美但内容胡说八道,并提供了迄今最系统的跨模态评估框架。不过,其“多模态”评估实则是把图像和音频先转成文本再喂给模型,相当于跳过了最关键、最容易出错的视觉和语音理解环节,这使得对多模态大模型的直接评估力度大打折扣。 ...

2026-04-29

The Synergistic Role of Audio and Large Video-Language Model in Source-Free Video Domain Adaptation

📄 The Synergistic Role of Audio and Large Video-Language Model in Source-Free Video Domain Adaptation #领域适应 #多模态模型 #预训练 #知识蒸馏 #音视频 ✅ 7.0/10 | 前25% | #领域适应 | #多模态模型 | #预训练 #知识蒸馏 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 -0.5 | 置信度 高 👥 作者与机构 第一作者:Tzu Ling Liu(University of Saskatchewan, Department of Computer Science) 通讯作者:未说明 作者列表:Tzu Ling Liu(University of Saskatchewan, Department of Computer Science)、Ian Stavness(University of Saskatchewan, Department of Computer Science)、Mrigank Rochan(University of Saskatchewan, Department of Computer Science) 💡 毒舌点评 这篇论文巧妙地将“大”(LVLM)和“稳”(音频)两种特性融合,在SOTA已经很高的任务上又挤出了几个百分点的性能提升,工程整合能力值得肯定。然而,其“多模态”的核心贡献中,音频模态的“协同作用”在消融实验中只带来了约1.7%的平均增益(从54.2%到55.9%),显得有些雷声大雨点小,更像是为用音频而用音频,缺乏对音频为何有效以及在何种情况下可能失效的深入机制分析。 ...

2026-04-29

Theory and Application of Circular Relative Harmonic Coefficients

📄 Theory and Application of Circular Relative Harmonic Coefficients #声源定位 #麦克风阵列 #信号处理 #多通道 ✅ 7.5/10 | 前25% | #声源定位 | #麦克风阵列 | #信号处理 #多通道 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Yonggang Hu(National Key Laboratory on Blind Signal Processing, Chengdu, China) 通讯作者:Maoshen Jia(Beijing University of Technology, Beijing, China) 作者列表:Yonggang Hu(National Key Laboratory on Blind Signal Processing, Chengdu, China)、Liang Tao(未说明)、Jing Yu(National Key Laboratory on Blind Signal Processing, Chengdu, China)、Tianpeng Mao(National Key Laboratory on Blind Signal Processing, Chengdu, China)、Maoshen Jia(Beijing University of Technology, Beijing, China) 💡 毒舌点评 亮点:论文的理论推导部分非常扎实,从圆谐波分解出发,清晰地定义了CRHC特征并严谨地证明了其与频率、源信号无关且与方位角一一对应的优美性质,为后续应用提供了坚实的理论基础。短板:实验部分虽然包含了仿真和真实录音,但缺乏与当前更先进的声源定位算法(如基于深度学习的端到端方法、或更复杂的子空间/稀疏恢复方法)的直接对比,仅与基于RTF的简单基线进行比较,这使得其声称的“有效性”说服力打了折扣。此外,论文未提供任何代码或复现材料,对于一个提出新特征的工作来说,这是个明显的缺失。 ...

2026-04-29

Thinking While Listening: Simple Test Time Scaling for Audio Classification

📄 Thinking While Listening: Simple Test Time Scaling for Audio Classification #音频分类 #预训练 #测试时缩放 #大语言模型 #零样本 ✅ 6.5/10 | 前50% | #音频分类 | #测试时缩放 | #预训练 #大语言模型 学术质量 5.5/7 | 选题价值 1.0/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Prateek Verma(斯坦福大学电气工程系) 通讯作者:未说明 作者列表:Prateek Verma(斯坦福大学电气工程系)、Mert Pilanci(斯坦福大学电气工程系) 💡 毒舌点评 本文将LLM领域的“测试时缩放”概念移植到音频分类,思路清晰,用轻量级的GPT-2微调击败百亿参数大模型的结果也颇具启发性。但遗憾的是,论文在方法细节的深度打磨和与最新技术的全面比较上显得有些“想得不够深”,比如缺乏不同音频编码器、不同聚合策略的系统消融,更像是一个概念验证报告而非坚实的技术突破。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:论文中未提及是否公开了微调后的嵌入矩阵或任何其他模型权重。 数据集:使用了公开数据集ESC-50和FSD-50K,但未提供预处理脚本或划分细节。 Demo:未提及。 复现材料:提供了一些关键超参数(如补丁长度、采样次数范围、训练轮数、学习率),但缺少优化器、批量大小、随机种子、完整配置文件等核心复现信息。 论文中引用的开源项目:引用了AST[17], YAMNet[18], GPT-2[20], AudioSet[21], ESC-50[26], FSD-50K[27]。 📌 核心摘要 问题:论文旨在探索如何将大型语言模型中的“推理”和“测试时缩放”能力引入音频分类任务,在模型权重固定的情况下,仅通过增加推理时的计算来提升性能。 方法核心:提出“边听边想”框架。首先,利用预训练的音频模型(如AST, YAMNet)对输入音频进行补丁级(如500ms)的因果预测,通过多次采样为每个补丁生成一个包含类别和置信度的“推理轨迹”。然后,将这个轨迹输入一个冻结的大语言模型(如GPT-2, GPT-OSS-20B),利用其推理能力聚合轨迹信息,做出最终分类。 与已有方法相比新在哪里:传统音频分类管道(如AST)直接输出单个概率向量。本文方法在推理时构建了动态的、基于证据累积的“推理链”,并将分类任务转化为LLM可以处理的序列推理问题。其创新在于将音频模型的输出(而非原始音频)作为LLM的推理输入,并利用测试时缩放来提升性能。 主要实验结果:在ESC-50数据集(单标签)上,冻结的AST模型通过增加采样轨迹长度(从1到32)并用GPT-2聚合,准确率从79.3%提升至88.3%,接近全量微调的88.8%。在FSD-50K数据集(多标签)上,增加采样轨迹长度同样能持续提升AUC。论文中关键实验结果表格如下: 表1: ESC-50数据集上,基于YAMNet骨干网络,不同采样长度下零样本文本推理模型的准确率对比 ...

2026-04-29