自主导航是机器人与自动驾驶的核心功能,而SLAM技术是实现自主导航的前提与关键。现有的机器人与自动驾驶车辆往往会安装激光雷达,相机,IMU,GPS等多种模态的传感器,而且已有许多优秀的激光SLAM与视觉SLAM算法。但是每种模态的传感器都有其优点和缺点,如相机只能测量2D图像,且容易受光照和夜晚的影响;激光雷达获取的3D点云较为稀疏,而且在长走廊,隧道,以及开阔场景中容易发生退化;GPS测量极易受到环境的干扰;每种模态的传感器只能在适当的环境中发挥积极的作用。因此,我们希望以适当的方式融合多种模态的测量,通过优势互补,使SLAM算法能够在各种挑战性环境下持续输出鲁棒且精确的估计结果。因此无论是学术界还是工业界,多模态融合是未来SLAM发展的必然趋势。
相关岗位要求及待遇
目前各个机器人和自动驾驶的企业常年有SLAM算法的岗位需求,对于多传感器融合SLAM算法岗位更是开出高薪,而且优秀人才紧缺。下面是招聘网站上对多传感器融合岗位的要求和待遇:
如何快速从入门到精通
然而多模态融合SLAM的门槛较高,在需要视觉SLAM与激光SLAM的基础之外,还会遇到不同模态测量的融合,不同传感器的时间同步,多传感器的外参标定,多传感器异常检测等问题,使得各位同学做这块的时候遇到诸多障碍。因此我们联合机器人学国家重点实验室的博士大佬推出这门课程,从理论和代码实现两个方面对激光雷达-视觉-IMU-GPS融合的SLAM算法框架和技术难点进行讲解,并且博士大佬会根据自己多年的机器人工程经验,向大家讲解在实际机器人应用中多模态融合的方法和技巧。课程大纲如下:
讲师介绍
苏赟博士,硕博毕业于机器人学国家重点实验室,在IROS,RAS等机器人领域顶级会议和期刊发表论文多篇,精通主流视觉SLAM和激光SLAM框架代码,曾收割大疆,华为等大厂offer。本课程将以LVI-SAM为框架对多模态融合的SLAM进行讲解,助力各位同学对多模态融合的SLAM更快的入门和更深的理解。
课程亮点
1. 国内首个多模态融合SLAM课程;
2. 循序渐进,从理论框架,到逐行代码讲解;
3. 专属的学习交流群,可以与讲师,各大院校和企业的人才进行沟通交流,一起分析和讨论遇到的难题,防止闭门造车;
4. 真正能面向工业落地的内容分享;
学后收获
1. 掌握各个传感器模型,传感器标定与数据同步;
2. 对激光SLAM与视觉SLAM的框架,各自的优势与劣势,适应的场景有深刻的理解;
3. 能够掌握多模态融合的切入点,真正手动实现多模态融合优化的代码,可以后续扩展到其他模态传感器的融合;
4. 可以建立良好的交流圈子,随时与相同方向的同学和同行进行交流;
课程要求与面向对象
1. 有一定C++编程功底,对Linux,ROS等工具比较熟悉;
2. 熟悉SLAM相关的基础知识,对概率论、线性代数、非线性优化有一定基础;
3. 主要面向机器人和自动驾驶领域的本科生,硕士生,博士生,以及从事SLAM算法的企业人员;
课程咨询
点击购买与咨询
▲微信扫码可查看、购买、学习课程
▲添加小助理微信:cv3d007,了解更多