Full-Duplex Interaction in Spoken Dialogue Systems: A Comprehensive Study from the ICASSP 2026 HumDial Challenge

📄 Full-Duplex Interaction in Spoken Dialogue Systems: A Comprehensive Study from the ICASSP 2026 HumDial Challenge #语音对话系统 #端到端 #基准测试 #多模态模型 ✅ 6.5/10 | 前25% | #语音对话系统 | #端到端 | #基准测试 #多模态模型 | arxiv 学术质量 4.0/7 | 选题价值 1.8/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:未说明(作者列表按姓氏字母顺序排列,未明确指出第一作者) 通讯作者:未说明(论文中未明确标注通讯作者,但提供了共同联系邮箱) 作者列表:Chengyou Wang (Audio, Speech and Language Processing Group (ASLP@NPU), School of Computer Science, Northwestern Polytechnical University, Xi’an, China)、Hongfei Xue (同上)、Guojian Li (同上)、Zhixian Zhao (同上)、Shuiyuan Wang (未说明具体单位,仅列姓名)、Shuai Wang (未说明具体单位,仅列姓名)、Xin Xu (未说明具体单位,仅列姓名)、Hui Bu (AISHELL, China)、Lei Xie (Audio, Speech and Language Processing Group (ASLP@NPU), School of Computer Science, Northwestern Polytechnical University, Xi’an, China) 💡 毒舌点评 本文为全双工语音对话系统的研究提供了一套详尽、实用的“考试大纲”和“模拟题库”,其数据集构建和评测框架设计是当前该领域急需的公共产品,对推动后续研究非常有益;但作为一篇“综合性研究”,它更像是一个挑战赛报告和资源发布文档,缺乏自身提出的、经过严格验证的新型模型或核心算法,学术增量主要体现在“评测”而非“建模”上。 ...

2026-04-27

Identifying and typifying demographic unfairness in phoneme-level embeddings of self-supervised speech recognition models

📄 Identifying and typifying demographic unfairness in phoneme-level embeddings of self-supervised speech recognition models #语音识别 #自监督学习 #公平性 #模型评估 #音素 ✅ 7.0/10 | 前50% | #语音识别 | #自监督学习 | #公平性 #模型评估 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.0 | 置信度 中 👥 作者与机构 第一作者:Felix Herron(MILES Team, LAMSADE, Université Paris Dauphine-PSL, France & GETALP Team, LIG, Université Grenoble Alpes, France) 通讯作者:未说明(论文未明确标注,但通常为末位作者或提供邮箱者,此处作者邮箱为felix.herron@univ-grenoble-alpes.fr) 作者列表: Felix Herron(Université Paris Dauphine-PSL & Université Grenoble Alpes) Solange Rossato(Université Grenoble Alpes) Alexandre Allauzen(Université Paris Dauphine-PSL) François Portet(Université Grenoble Alpes) 💡 毒舌点评 亮点在于将ASR不公平性问题分解为可度量的“系统性偏差”和“随机方差”两种几何形态,为诊断模型失败模式提供了清晰的理论工具箱;然而,整篇论文更像是对现有模型的一次全面“体检报告”,指出了病灶(尤其是高方差问题)却并未开出有效的“处方”,所验证的公平性增强方法(DET/DAT)也未能触及核心,这使得研究在建设性上略显乏力。 ...

2026-04-27

Listening with Time: Precise Temporal Awareness for Long-Form Audio Understanding

📄 Listening with Time: Precise Temporal Awareness for Long-Form Audio Understanding #音频大模型 #音频场景理解 #基准测试 #强化学习 #数据集 🔥 8.0/10 | 前25% | #音频场景理解 | #音频大模型 | #基准测试 #强化学习 | arxiv 学术质量 5.8/7 | 选题价值 1.5/2 | 复现加成 0.7 | 置信度 高 👥 作者与机构 第一作者:Mingchen Shao(西北工业大学) 通讯作者:Lei Xie(西北工业大学) 作者列表:Mingchen Shao(西北工业大学)、Hang Su(独立研究者)、Wenjie Tian(西北工业大学)、Bingshen Mu(西北工业大学)、Zhennan Lin(西北工业大学)、Lichun Fan(独立研究者)、Zhenbo Luo(独立研究者,清华大学相关)、Jian Luan(独立研究者)、Lei Xie(西北工业大学) 💡 毒舌点评 这篇论文的亮点在于其“庖丁解牛”式的系统设计:面对长音频时间感知这一老大难问题,没有硬磕模型本身,而是从数据、评测、推理范式三个层面给出了一套“组合拳”,尤其是构建全球-局部时间线的TWA-CoT思路清晰有效。然而,其短板也很明显:框架的计算开销和多轮推理的延迟使其在实时或流式场景下的应用面临挑战,且最终性能的天花板依然受限于所采用的骨干模型(Qwen3-Omni)的基础能力。 🔗 开源详情 代码:论文承诺开源,并提供了GitHub仓库链接:https://github.com/alanshaoTT/LAT-Audio-Repo。 模型权重:论文提及基于Qwen3-Omni-30B进行训练,但未明确说明最终模型权重是否开源。根据仓库名推测,模型权重可能也会开源。 数据集:LAT-Chronicle数据集和LAT-Bench基准承诺开源,但未说明具体获取方式(如需申请或直接下载)。 Demo:论文中未提及提供在线演示。 复现材料:论文提供了详细的三阶段训练策略、关键超参数(学习率、批大小、组大小)、奖励函数设计以及数据集的构成统计,复现材料较为充分。 引用的开源项目/工具: 骨干模型:Qwen3-Omni-30B-A3B-Instruct (Team, 2025c) 训练框架:Swift (Zhao et al., 2025) 对比模型/工具:Audio-Flamingo3 (Goel et al., 2025)、Gemini系列 (Team, 2025a)、Step-Audio-R1.1 (Tian et al., 2025)、Time-Audio (Wang et al., 2026) 评估指标:FENSE (Zhou et al., 2022; Dinkel et al., 2025) 原子标注中使用的模型:Gemini-2.5-Pro、LLM-ForceAligner (Mu et al., 2026) 强化学习算法:Group Relative Policy Optimization (Shao et al., 2024) 📌 核心摘要 本文针对大型音频语言模型在长音频理解任务(尤其是需要精确时间感知的任务)中性能显著下降的问题,提出了一套综合解决方案。 ...

2026-04-27

Spectrographic Portamento Gradient Analysis: A Quantitative Method for Historical Cello Recordings with Application to Beethoven's Piano and Cello Sonatas, 1930--2012

📄 Spectrographic Portamento Gradient Analysis: A Quantitative Method for Historical Cello Recordings with Application to Beethoven’s Piano and Cello Sonatas, 1930–2012 #音乐信息检索 #时频分析 #数据集 ✅ 7.5/10 | 前25% | #音乐信息检索 | #时频分析 | #数据集 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Ignasi Sole(机构未说明) 通讯作者:未说明 作者列表:Ignasi Sole(机构未说明) 💡 毒舌点评 这篇论文巧妙地将宏观的历史音乐表演风格变迁(滑音的衰减),解构为一个连续的、可物理测量的微观参数(频谱梯度),其“渐平”假说比“消失”说更具解释力。然而,其验证过程严重依赖研究者的主观听觉判断来校准谱图标记点,且将贝多芬两首奏鸣曲的开头作为全部分析材料,结论的普适性需要打上一个问号。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:论文中声明“The full dataset and measurement protocol are publicly available”,并引用了来源[10],但未提供具体URL或获取方式。因此,数据集已公开但获取路径未在文中明确给出。 Demo:未提及。 复现材料:提供了详细的测量协议、校准参数(表1)和分析步骤(第IV、V节),构成了可复现的操作指南。 论文中引用的开源项目:Sonic Visualizer(由Chris Cannam在Queen Mary University of London开发)、GIMP(GNU Image Manipulation Program)、Sibelius(乐谱软件,用于标注)。 📌 核心摘要 问题:现有对弦乐滑音(portamento)的研究主要关注其出现频率和持续时间,将其视为二元现象,忽略了其内部表达特性的变化。 方法核心:提出“频谱梯度分析”方法,使用Sonic Visualizer提取旋律谱图,在GIMP中手动标记滑音起止点,通过校准将像素斜率转换为物理单位(Hz/s),以此量化滑音的“陡峭度”。同时开发了针对早期模拟录音的增益恢复协议。 新意:首次引入梯度(Hz/s)作为第三维度定量描述滑音,超越了传统的频率和时长测量。该方法能区分持续时间相同但音高变化率不同的滑音,捕捉其表达特质。 主要结果:对22个录音(1930-2012)的分析表明,滑音梯度与录音年份呈负相关(图7),并与演奏速度呈负相关(图8)。早期录音滑音梯度平均值约3015 Hz/s,晚期录音平均值约3065 Hz/s(表2),但无滑音录音集中于1990年后。结果支持滑音衰减是一个梯度持续变平的连续过程,而非突变。 实际意义:为音乐表演史研究提供了新的、物理可解释的量化工具,使跨时代、跨演奏者的滑音风格比较更加精细。其校准协议可应用于其他单音乐器录音分析。 主要局限性:分析仅限于两首贝多芬大提琴奏鸣曲的无伴奏开头段落,因多声部段落无法可靠分析。测量依赖人工���记,存在主观性风险。校准参数与特定软件设置绑定。 🏗️ 模型架构 本文并非提出传统意义上的“模型”,而是设计了一套分析测量协议(Protocol),其流程如下: ...

2026-04-27

Transformer-Based Rhythm Quantization of Performance MIDI Using Beat Annotations

📄 Transformer-Based Rhythm Quantization of Performance MIDI Using Beat Annotations #音乐信息检索 #Transformer #数据增强 #模型评估 🔥 8.0/10 | 前25% | #音乐信息检索 | #Transformer | #数据增强 #模型评估 | arxiv 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Maximilian Wachter(未说明) 通讯作者:未说明 作者列表:Maximilian Wachter(未说明), Sebastian Murgul(未说明), Michael Heizmann(未说明) 💡 毒舌点评 本文最大的亮点在于思路的简洁与高效:通过将节拍信息作为先验“喂”给Transformer,巧妙地规避了让模型同时学习节拍检测和量化这两个相互耦合的难题,取得了显著的性能提升。主要短板在于模型的通用性和可扩展性尚未得到充分验证——模型目前处理的音符时值范围有限(最大为全音符),且在未见过的复杂拍号(如6/8)上的处理仍需依赖启发式预处理,这与论文声称的“灵活框架”尚有差距。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及。 数据集:主要使用ASAP和Leduc数据集,均为公开可用数据集。论文中未提及新的自有数据集。 Demo:未提及。 复现材料:提供了极其详细的训练配置、超参数、数据预处理步骤描述以及评估指标的开源实现链接(MUSTER),复现门槛较低。 论文中引用的开源项目:引用了MUSTER评估指标的开源实现(https://github.com/amtevaluation/amtevaluation.github.io)。 开源计划:论文中未提及任何关于未来开源代码或模型的计划。 📌 核心摘要 解决的问题:将人类演奏的、具有时间偏差的MIDI数据,准确量化为可读的乐谱表示(确定音符的精确节拍位置和时值)。传统方法往往需要同时推断节拍和量化,或依赖端到端模型隐式处理,难以利用已知的、准确的节拍信息(如节拍器数据)。 方法核心:提出一个基于精简T5 Transformer架构的序列到序列模型。其输入是经过预处理的、将节拍信息(12个子拍)与音符时间对齐后的“预量化”MIDI音符序列;输出是标准乐谱表示(MusicXML格式)的音符序列。模型通过监督学习,直接预测每个音符的精确节拍位置(Onset)和音符时值(Note Value)。 与已有方法相比新在哪里:这是首次明确将先验的、准确的节拍标注(而非模型预测的节拍)作为核心输入用于节奏量化。与端到端模型(如[2])相比,它提供了更高的灵活性和可解释性;与传统概率模型(如HMM)相比,它利用Transformer的注意力机制更擅长捕捉长距离节奏模式,并能通过数据增强获得更好的泛化能力。 主要实验结果: 核心指标:在ASAP数据集(钢琴)上,起始点F1分数达到97.3%,音符时值准确率达到83.3%。 跨节拍泛化:在仅用4/4拍训练的情况下,模型在2/4和3/4拍测试集上也表现良好,如在2/4拍上起始点F1为96.7%。用多节拍数据训练可进一步提升所有节拍的性能。 跨乐器适应:在吉他数据集(Leduc)上进行领域适应后,专用模型在吉他测试集上的起始点F1和音符时值准确率分别达到92.1% 和 90.2%,显著优于使用钢琴数据预训练的模型。 与SOTA比较:采用MUSTER指标与多种基线对比,在onset-time error rate (ε_onset) 上取得了最佳结果 12.30,优于端到端模型PM2S (15.55) 和其他传统方法。 模型/方法 ε_onset ε_offset Neural Beat Tracking [16] 68.28 54.11 End-to-End PM2S [2] 15.55 23.84 HMMs + Heuristics (J-Pop) [27] 25.02 29.21 HMMs + Heuristics (classical) [27] 22.58 29.84 MuseScore [21] 47.90 49.44 Finale [18] 31.85 45.34 本文模型 12.30 28.30 实际意义:为自动乐谱生成、音乐编辑、数字化乐谱档案建设提供了一个更精确、可靠的量化工具。尤其适用于有精确节拍信息(如录制时有节拍器)的演奏,或能获得高质量节拍估计的场景。 主要局限性:1) 当前模型支持的最大音符时值为全音符,且词汇表固定,对更复杂的现代音乐符号(如三十二分音符、不规则拍号)支持不足;2) 模型假设输入输出音符一一对应,无法处理演奏中的错音或漏音;3) 未公开代码和模型权重,限制了社区的快速验证与应用。 🏗️ 模型架构 模型的整体架构是一个基于Transformer的序列到序列(Seq2Seq)模型,具体流程如下: ...

2026-04-27

TTS-PRISM: A Perceptual Reasoning and Interpretable Speech Model for Fine-Grained Diagnosis

📄 TTS-PRISM: A Perceptual Reasoning and Interpretable Speech Model for Fine-Grained Diagnosis #语音质量评估 #指令微调 #基准测试 #开源工具 #语音合成 ✅ 7.5/10 | 前25% | #语音质量评估 | #指令微调 | #基准测试 #开源工具 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:未说明(论文作者列表未明确排序,但根据邮箱 xi-wang24@mails.tsinghua.edu.cn 和作者列表首位推测,第一作者可能为 Xi Wang)。 通讯作者:未说明(论文作者列表未明确标注,根据邮箱 zywu@sz.tsinghua.edu.cn 推测,通讯作者可能为 Zhiyong Wu)。 作者列表:Xi Wang (1, 2), Jie Wang (3), Xingchen Song (2), Baijun Song (1), Jingran Xie (1), Jiahe Shao (1), Zijian Lin (1), Di Wu (1), Meng Meng (1), Jian Luan (2), Zhiyong Wu (1)。 机构列表:1. 清华大学,中国;2. 小米公司 MiLM Plus,中国;3. 东京大学,日本。 💡 毒舌点评 这篇论文像一个严谨的“语音体检医生”,为TTS系统量身定做了一套包含12个指标的“体检表”和基于大模型生成数据的“训练集”,确实让评估从“整体印象”走向了“分项诊断”。但尴尬的是,这位“医生”自己在“发音”这个最基础的体检项目上却可能受制于自身的“学术出身”(ASR预训练偏差),体检结论的权威性打了点折扣。 ...

2026-04-27

UniSonate: A Unified Model for Speech, Music, and Sound Effect Generation with Text Instructions

📄 UniSonate: A Unified Model for Speech, Music, and Sound Effect Generation with Text Instructions #音频生成 #流匹配 #扩散模型 #统一音频模型 #语音合成 🔥 8.5/10 | 前25% | #音频生成 | #流匹配 | #扩散模型 #统一音频模型 | arxiv 学术质量 6.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 高 👥 作者与机构 第一作者:Chunyu Qiang(天津大学, 快手科技) 通讯作者:Longbiao Wang(天津大学), Jianwu Dang(天津大学) 作者列表:Chunyu Qiang(天津大学, 快手科技)、Xiaopeng Wang(快手科技)、Kang Yin(快手科技)、Yuzhe Liang(快手科技)、Yuxin Guo(快手科技, 中国科学院自动化研究所)、Teng Ma(快手科技)、Ziyu Zhang(快手科技)、Tianrui Wang(天津大学)、Cheng Gong(天津大学)、Yushen Chen(快手科技)、Ruibo Fu(中国科学院自动化研究所)、Chen Zhang(快手科技)、Longbiao Wang(天津大学)、Jianwu Dang(天津大学) 💡 毒舌点评 亮点:论文真正实现了语音、音乐、音效的“三合一”生成,且通过精巧的“动态token注入”和“课程学习”让这个庞然大物不仅能跑,还在语音和音乐的主流评测中刷出了新SOTA,证明了“团结就是力量”。 短板:在音效生成这个“混沌领域”,这个统一模型还是打不过那些专精于此的专门模型(如GenAU-L),并且论文未开源代码和模型,让其优秀的实验结论暂时停留在了“可看不可摸”的阶段。 ...

2026-04-27

语音/音频论文速递 2026-04-27

语音/音频论文速递 2026-04-27 共分析 13 篇论文 ⚡ 今日概览 📥 抓取 13 篇 → 🔬 深度分析完成 🏷️ 热门方向 方向 数量 分布 #音乐信息检索 2篇 ██ #语音识别 2篇 ██ #音频生成 1篇 █ #发音错误检测 1篇 █ #说话人识别 1篇 █ #音乐理解 1篇 █ #音频场景理解 1篇 █ #语音质量评估 1篇 █ 📊 论文评分排行榜(13 篇,按分数降序) 排名 论文 评分 分档 主任务 🥇 UniSonate: A Unified Model for Speech, Music, and Sound 8.5分 前25% #音频生成 🥈 Beyond Acoustic Sparsity and Linguistic Bias: A Prompt- 8.5分 前25% #发音错误检测 🥉 DM-ASR: Diarization-aware Multi-speaker ASR with Large 8.0分 前25% #说话人识别 4. Transformer-Based Rhythm Quantization of Performance MI 8.0分 前25% #音乐信息检索 5. Audio Effect Estimation with DNN-Based Prediction and S 8.0分 前25% #音乐理解 6. Listening with Time: Precise Temporal Awareness for Lon 8.0分 前25% #音频场景理解 7. TTS-PRISM: A Perceptual Reasoning and Interpretable Spe 7.5分 前25% #语音质量评估 8. Spectrographic Portamento Gradient Analysis: A Quantita 7.5分 前25% #音乐信息检索 9. Advancing automatic speech recognition using feature fu 7.0分 前25% #语音识别 10. Identifying and typifying demographic unfairness in pho 7.0分 前50% #语音识别 11. Full-Duplex Interaction in Spoken Dialogue Systems: A C 6.5分 前25% #语音对话系统 12. Audio Video Verbal Analysis (AVVA) for Capturing Classr 6.0分 前50% #音频问答 13. Earable Platform with Integrated Simultaneous EEG Sensi 5.5分 后50% #音频事件检测 📋 论文列表 🥇 UniSonate: A Unified Model for Speech, Music, and Sound Effect Generation with Text Instructions 🔥 8.5/10 | 前25% | #音频生成 | #流匹配 | #扩散模型 #统一音频模型 | arxiv ...

2026-04-27

MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control

📄 MAGIC-TTS: Fine-Grained Controllable Speech Synthesis with Explicit Local Duration and Pause Control #语音合成 #流匹配 #零样本 #语音大模型 ✅ 7.5/10 | 前25% | #语音合成 | #流匹配 | #零样本 #语音大模型 | arxiv 学术质量 4.5/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Jialong Mai(华南理工大学) 通讯作者:Xiaofen Xing(华南理工大学) 作者列表:Jialong Mai(华南理工大学)、Xiaofen Xing(华南理工大学)、Xiangmin Xu(华南理工大学) 💡 毒舌点评 亮点在于首次将“token级时长与停顿”作为显式数值条件注入Flow-based TTS,思路清晰且工程设计(如零值校正、交叉验证数据构建)巧妙。短板是实验规模和场景相对有限(主要在中文短句上验证),且缺乏与更多现代零样本TTS基线(如CosyVoice 2、MaskGCT)的直接对比,说服力可以更强。 🔗 开源详情 代码:论文中未提及代码链接。 模型权重:未提及公开权重。 数据集:论文中描述了数据构建方法(基于Emilia子集和交叉验证子集),但未提及是否公开或如何获取。 Demo:未提及在线演示。 复现材料:论文详细描述了训练配置(学习率、batch size、步数、硬件等)、模型架构细节和评估协议,提供了良好的复现信息基础。 论文中引用的开源项目:F5-TTS(骨干模型)、Stable-ts(时长标签生成)、Montreal Forced Aligner (MFA)(对齐与评估)、Vocos(声码器)、Emilia(训练数据集)。 📌 核心摘要 问题:现有的文本转语音(TTS)系统通常只提供语句级的时长控制或全局语速调节,缺乏对单个token(如音素、字)的精确发音时长和停顿的显式、细粒度控制能力。 方法核心:提出MAGIC-TTS,这是一个基于流匹配(Flow Matching)的零样本TTS模型。其核心是通过残差连接,将token级的内容时长(di)和停顿(pi)作为显式数值条件注入到文本表征中,从而引导并行声学生成器进行合成。 创新点:这是首个支持token级显式时长与停顿控制的TTS模型。关键创新包括:1)设计了可学习的门控残差注入机制,将时长条件融入文本嵌入;2)提出零值校正方法,平衡内容时长与停顿两个控制分支的学习信号;3)构建了基于交叉验证的高置信度时长监督数据集,用于稳定训练。 主要实验结果: 时长控制精度:在B@150测试集上,与无控制的“自发合成”相比,提供显式控制后,内容时长平均绝对误差(C-MAE)从36.88ms降至10.56ms,相关性(C-Corr.)从0.588升至0.918;停顿平均绝对误差(P-MAE)从18.92ms降至8.32ms,相关性(P-Corr.)从0.283升至0.793。 局部编辑场景:在导航、朗读等场景中,模型能以极低偏差(内容时长偏差1.07ms)实现均匀时长基线,并能将局部编辑区域有效推向目标值(内容时长偏差17.60ms,停顿偏差23.33ms)。 消融实验:移除零值校正或高置信度监督会损害控制精度,尤其是更精细的内容时长控制。 实际意义:使TTS系统能够支持需要精确节奏控制的实用场景,如导航提示的均匀播报、教学朗读的节奏引导、以及无障碍代码阅读的特定停顿。 主要局限性:模型性能高度依赖外部对齐工具(如MFA、Stable-ts)提供的时长标签质量;实验主要集中在中文短句,对长文本、多语言及更复杂韵律的泛化能力未充分验证;未开源代码和模型。 🏗️ 模型架构 MAGIC-TTS建立在基于条件流匹配(Conditional Flow Matching)的非自回归零样本TTS骨干网络(F5-TTS)之上。其整体流程如下: ...

2026-04-25

MOMO: A framework for seamless physical, verbal, and graphical robot skill learning and adaptation

📄 MOMO: A framework for seamless physical, verbal, and graphical robot skill learning and adaptation #机器人技能学习 #多模态模型 #大语言模型 #工业应用 ✅ 7.5/10 | 前25% | #机器人技能学习 | #多模态模型 | #大语言模型 #工业应用 | arxiv 学术质量 5.5/7 | 选题价值 1.5/2 | 复现加成 0.5 | 置信度 中 👥 作者与机构 第一作者:Markus Knauer(德国航空航天中心,机器人与机电一体化研究所;慕尼黑工业大学,计算、信息与技术学院) 通讯作者:未说明 作者列表:Markus Knauer(DLR, RMC; TUM, CIT)、Edoardo Fiorini(DLR, RMC)、Maximilian Mühlbauer(DLR, RMC; TUM, CIT)、Stefan Schneyer(DLR, RMC; TUM, CIT)、Promwat Angsuratanawech(DLR, RMC; TUM, CIT)、Florian Samuel Lay(DLR, RMC)、Timo Bachmann(DLR, RMC)、Samuel Bustamante(DLR, RMC; TUM, CIT)、Korbinian Nottensteiner(DLR, RMC)、Freek Stulp(DLR, RMC)、Alin Albu-Schäffer(DLR, RMC; TUM, CIT)、João Silvério(DLR, RMC)、Thomas Eiband(DLR, RMC) 💡 毒舌点评 亮点:框架设计上实现了“无缝”多模态切换,将物理、语音、图形界面三种交互方式通过“路径点插入”这一统一机制连接,是一个考虑周全的系统工程。短板:论文自称是“框架”,但实验部分更像是一个功能演示,缺乏在标准基准上与基线方法的定量对比,其“有效性”主要依赖于贸易展观众的定性观察,科学严谨性有待加强。 ...

2026-04-25