论文

NavTrust:具身导航可信度基准测试

具身导航主要分为两大类:视觉-语言导航(VLN),智能体依照自然语言指令行进;以及目标-物体导航(OGN),智能体前往指定目标物体。然而,现有研究主要在理想条件下评估模型性能,忽略了现实环境中可能出现的损坏。为填补这一空白,我们提出 NavTrust,一个统一基准,在真实场景中对 RGB、深度和指令等输入模态进行系统性损坏,并评估其对导航性能的影响。据我们所知,NavTrust 是首个在统一框架下让具身导航智能体同时面对多样化 RGB-深度损坏与指令变异的基准。我们对七种最先进方法的广泛评估显示,在真实损坏下性能显著下降,揭示关键的鲁棒性缺口,并为构建更可信赖的具身导航系统提供路线图。此外,我们系统评估了四种不同的缓解策略,以增强对 RGB-深度与指令损坏的鲁棒性。我们的基线模型包括 Uni-NaVid 和 ETPNav,我们将其部署在真实移动机器人上,观察到对损坏的鲁棒性得到提升。项目网站:https://navtrust.github.io

发布时间 Mar 19, 2026

来源 Robotics Core

会议 / 平台 arXiv

作者 Huaide Jiang, Yash Chaudhary, Yuping Wang, Zehao Wang, Raghav Sharma, Manan Mehta, Yang Zhou, Lichao Sun, Zhiwen Fan, Zhengzhong Tu, Jiachen Li

查看原文