类脑导航:赋予呆板人动物的伶俐
类脑导航:赋予机器人动物的智慧
今天,基于5G信号的路对车、车对车通讯技术正如火如荼地发展,车联网离我们越来越近,由其提供导航信息的更高级无人驾驶技术也越来越成为可能。
但是,如果有一天,这些外界的导航信息突然中断了,怎么办?
机器人在未知环境中,能否“自力更生”,自主地判断自身的位置、找到前进的方向,不变成“路痴”呢?
近日,北京师范大学系统科学学院斯白露教授的团队建立了一套贝叶斯吸引子网络实时定位和地图构建模型(NeuroBayesSLAM),实现了机器人在未知环境中的自主定位和地图学习。这个模型的研究成果发表在《神经网络》上,它模拟哺乳动物大脑的空间编码细胞的工作原理,整合视觉信息和运动信息,证明了可以将哺乳动物空间认知的思维方法应用于机器人导航,并具有独特的优越性。
栅格细胞、位置细胞和头朝向细胞分工协作
“机器人导航是人工智能领域的经典问题。”斯白露说,“从20世纪80年代以来,人工智能学家设计了各种算法,希望赋予机器人空间认知能力,在陌生环境中认路,确定自己的方位。这些方法的效果远比不上老鼠等动物的导航能力。”
脑科学研究者通过半个多世纪的研究,发现动物的导航是由多种编码空间信息的神经细胞协作完成的。20世纪70年代,约翰·欧基夫在哺乳动物大脑的海马体中发现了一组能编码位置的“位置细胞”,可以记忆窝和食物源等重要的位置。
2005年,梅·布丽特·莫泽尔和爱德华·莫泽尔等人又在海马体的附近,发现了另外一套负责空间认知的神经回路——内嗅皮层,其中的“栅格细胞”在平面环境中的放电模式形成周期性的三角形栅格。这些栅格细胞整合另一组表征运动方向的“头朝向细胞”,来编码自己访问过的位置、方向和距离,相对位置细胞有更强的空间记忆能力。
三人因上述科研成果获得了2014年的诺贝尔生理学或医学奖。
哺乳动物在导航过程中需要数以千万计的细胞参与决策,视神经网络获得的视觉信息和运动信息如何在栅格细胞和头朝向细胞神经网络中实现整合的呢?
斯白露等人发现,大脑整合这些信息的方式符合贝叶斯法则,可以借鉴用于解决机器人导航中的定位和地图构建问题。
模型中栅格细胞和头朝向细胞模拟真实神经细胞的激活状态,构成位置和方向的先验知识。在运动时,大脑视觉感知获得新的信息之后,栅格细胞和头朝向细胞会根据新信息的不确定性更新、调整位置和方向的概率分布,形成一个后验估计。栅格细胞和头朝向细胞通过这种统一的机制动态地整合多种感知信息流,动物就得到了自身方位的最优概率,也就实时构建了一套认知地图,并能够在外界定位信息缺失的情况下进行自主导航。
深度学习还需要什么
深度学习虽然在过去的几年中得到了广泛的应用,但也遇到了可解释性差和需要大量训练数据的瓶颈。
“深度学习之父”、多伦多大学计算机科学系教授杰弗里·辛顿说:“要解决人工智能的问题,需要在计算机科学和生物学之间架设桥梁。”
斯白露认为,与脑神经网络相比,深度学习的约束较少。虽然能够借助学习和优化方法在宏观上产生好的结果,但深度学习模型中的元素在机制上不太好理解,整体上是个黑盒子,模型的输出不可控,具有安全隐患。此外,脑网络具有明显的模块化组织特征,而深度学习网络目前主要模拟脑网络的层次化机制,能否产生模块化的功能组织还有待研究。