近日,银河通用联合北京大学、阿德莱德大学和浙江大学等团队,推出了全球首个跨本体全域环视的导航基座大模型 ——NavFoM(Navigation Foundation Model)。这一创新性模型旨在将不同的机器人导航任务整合到一个统一的框架中,包括视觉与语言导航、目标导向导航、视觉追踪以及自主驾驶等多种应用场景。

NavFoM 的特点之一是其全场景支持能力,不论是室内还是室外场景,模型都能够在未见过的环境中实现零样本运行,无需额外的建图或数据采集。这意味着用户可以更加便捷地应用该技术于多种环境中,而无需繁琐的准备工作。
此外,NavFoM 还具备多任务支持功能,能够通过自然语言指令实现目标跟随和自主导航等任务。这一设计使得不同机器人能够快速适配,从机器狗到无人机、从轮式人形到汽车等不同尺寸的机器人均能在这一框架下高效运作。
在技术层面,NavFoM 引入了两个关键创新:首先是 TVI Tokens(Temporal-Viewpoint-Indexed Tokens),使模型具备理解时间和方向的能力;其次是 BATS 策略(Budget-Aware Token Sampling),这允许模型在计算资源有限的情况下依然表现出色。

值得一提的是,NavFoM 还构建了一个庞大的跨任务数据集,包含约八百万条跨任务、跨本体的导航数据,此外还包括四百万条开放问答数据。这一训练量是以往工作的两倍,使模型具备更强的语言与空间语义理解能力。
NavFoM 的发布标志着机器人导航领域的一次重大进步,开发者可以基于这一模型,通过后续训练,进一步发展出符合特定需求的应用模型。
[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表本站立场。