进阶无人驾驶—百度Apollo安装与仿真平台

课程介绍

Apollo作为自动驾驶平台,学习者如何从硬件、软件等方面快速入门。同时,课程还会介绍Apollo的部署安装以及仿真平台的使用。

一、Apollo自动驾驶架构介绍

我们还记得,自动驾驶硬件架构:一般采用激光雷达作为主要感知传感器,同时结合摄像头、GPS/IMU、毫米波雷达、超声波雷达等,一NVIDIA Drive PX2或者Xavier作为主要计算平台,在工业PC机上运行各种算法模块,通过线控技术控制车辆行驶。


下面我们开始介绍详细内容:

  • 1.最底层的车辆平台

底层车辆平台执行Apollo无人驾驶平台的车辆控制指令。为了能够运行Apollo生成的指令,车辆必须是线控的,例如可以接受一定的指令,比如换挡、加减速、转向,完成对应的操作。

  • 2.传感器层

传感器层主要是集成各种传感器对汽车周围环境进行感知,包括GPS、IMU、相机、激光雷达、毫米波雷达、超声波雷达等。无人驾驶系统对算力的要求非常高,所以在Apollo上安装一台高性能工控机(IPC)机。

Apollo 中GPS/IMU主要是用于自定位。相机的功能主要是做红绿灯识别。主传感器激光雷达主要用来感知车辆周围环境。在百度内部使用了Velodyne 64线激光雷达和国产禾赛的Pandora。Apollo 3.0时,我们开放了更多的激光雷达型号,例如16线速腾聚创(Robosense)、16线镭神科技等等。毫米波雷达主要用来做远距离的跟车、障碍物的检测等。超声波雷达主要用来做五米范围之内的障碍物的检测;HMI是对车辆发指令的一些设备,例如平板。Blackbox是百度开放的一个商业化硬件,它记录一些内部数据,例如关键时刻的执行操作,类似于飞机上的黑匣子。在Apollo 3.0,我们发布了一些硬件开发平台,成为Sensor Unit(ASU)。

  • 3.核心软件平台

核心软件层又可以细分为三层:最下面的是RTOS实时操作系统,在Apollo中,我们使用打补丁的方式来实现实时的效果。中间层是Runtime Framework。这一层,我们用的是ROS,主要是为上层的模块提供数据层支持。最上面一层是Apollo各个功能模块实现部分,包括地图引擎、定位、感知、规划、监管、控制、端到端以及HMI等。

  • 4.云服务层

最上层的云服务层提供了高精度地图服务、模拟仿真、D阿塔、 Platform、安全和更新、DuerOS等。

对于高精度地图,在中国,个人并不具备制定高精度地图的资历和能力,因为政府对地图的绘制有极其严格的限制力度。所以Apollo便将高精度地图通过云服务的方式对外开放。

二、Apollo平台的快速入门

本节主要分享Apollo的快速入门方法,包括编译、高精度地图和实时相对地图、一些调试工具以及新加入的计算单元和模块。

下图是大家对于无人驾驶方面比较感兴趣的地方进行的统计如下:

  • 1.Docker

Docker是一种容器的技术,它在是Linux内核的基础上做了一些轻量级和隔离机制的优化,让环境更小,部署起来更快。

利用Docker可以使整个工程的安装更加简单。Docker镜像通常是一个配置好的运行环境,包括依赖的第三方库等,使得用户不需要对环境编译做过多复杂的操作。

例如,在Release版本中,Apollo各个模块是一个已经编译好的二进制文件,可以直接运行;如果是开发版本,通常已经加载了所需的第三方库,用户只需要执行对应的编译指令。

  • 2.硬件接入

要完成自己硬件的集成,需要遵循以下三步:

第一步是原始的UDP(User Data Packet,用户数据包)。
第二步是做一个ROS Driver 方法,把驱动编译到Apollo里面
第三步是把数据发布出来

如何使用不同于参考硬件的传感器?

我们举出以下两个例子,如下所示:

第一个例子是如何用一个新型号的Camera,假设是USB接口的相机。如下图所示:最下层是相机硬件;往上一层是一个标准的底层驱动,即Video for Linux driver;再上一层是一个ROS Driver,最上层是Apollo可以接收到的内容。要使用该相机,主要的工作是底层硬件的解析,使得Apollo可以接收到相应的数据。


第二个例子就是激光雷达。它的工作流程大致为:硬件通常基于内核Socket的方式把数据传输到PC,PC端做一些数据处理之后发布的对应消息类型。对于激光雷达而言,发布的是Pointcloud 消息类型,该消息将被最上层的Apollo感知模块接收如下所示:右侧给出了ROS Driver如何解析UDP数据包的过程。

  • 3.编译

编译安装Apollo的步骤大致分为三个阶段

第一个阶段是在Ubuntu环境下进行操作,包括下载Apollo源码,安装Docker。Docker的安装方式有在线和离线两种方式,大家可以根据网络选取合适的安装方式。
第二阶段是进入Docker,拉取Apollo镜像,并以此创建容器。
第三阶段是进入容器,编译源码


编译结束以后可以做RTK循迹测试。RTK循迹测试就是把车辆底盘发出的这些主题和定位输出进行融合。

  • 4.高精度地图

下图是一个高精度地图,其右侧是相对地图,实时相对地图是车辆通过传感器来感知车身周围环境,可以帮助开放者更友好、方便运行Apollo。

  • 5.工具链

Apollo提供了一些非常有用的工具,帮助开发者提供效率,如下所示:


此外还提供了DBC文件转换工具、Teleop、主题监控工具、配置工具等。DBC转换工具解析车辆DBC文件,生成对应的Protobuf。Teleop工具可以通过键盘控制的方式实现车辆的信号发布。

主题监控工具可以同时需要监听多个ROS topic。Configuration工具明确标识出来修改了哪些字段。另外,Apollo还提供了面向Rosbag的一些工具,包括分析规划模块、驱动以及统计信息等,如图所示。


交通模拟工具可以通过脚本的方式控制地图的红绿灯变化情况,对车辆进行测试,如图所示:

  • 6.模拟和Dreamview

该模块是整个Apollo项目可视化的一个模块,基于该模块,开发者可以在没有车和传感器的情况下使用Apollo各个软件模块。


三、Apollo安装过程概述

  • 1.安装过程

分三步:

第一步:安装基础环境
第二步:拉取Docker镜像并创建容器
第三步:进入容器编译源码

1.首先是安装git,因为Apollo代码是托管在github平台上,所以需要git工具,然后使用git将Apollo源码克隆到本地。

2.下载源码后,还要安装Docker环境,可以使用Apollo提供的脚本安装,也可以在官网安装。

3.环境安装完成后,运用官方提供的脚本拉去Apollo Docker镜像文件,运行dev_start.sh-C命令。其中-C选项表示使用中国服务器进行加速。在拉取成功之后,该脚本会基于镜像创建一个容器Container。

4.接下来是对Apollo的操作,如果没有编译,需要先使用apollo.sh脚本进行编译。它有很多编译选项,默认的是Build和OP。还可以选择面向GPU编译。RS是对RB速腾聚创的激光雷达进行编译,USB Camera是对Camera的编译,这几种编译方式所涉及的类不同,所以使用的编译方式也不尽相同。

5.编译完成之后,需要对Apollo各个模块进行调试,我们会在每个版本发布的时候给出对应的Rosbag数据包,方便去做验证。比如说Apollo 1.0提供了一个循迹数据包,2.0时发布了一个激光点云的数据包。

6.我们可以启动bootstrap.sh脚本,对Apollo的bag进行回放,看一下效果。这是一个引导脚本,它做了以下事情,启动进程守护工具Supervisor,假如有进程出现不可预知的异常,这些进程通常会挂掉,经过配置后Supervisor可以保证在进程挂掉后,会将该进程拉进来。然后启动Roscore、voice_dectore和Dreamviewer。

7.对于Apollo平台,很多的模块都被启动,交由Supervisor进程进行监控,包括Can Bus、 激光雷达、控制模块、GPS、Mobileeye、NG等模块。

8.在运行完bootstrap.sh脚本之后,在浏览器地址栏输入localhost:8888查看Demo的演示效果。Demo加载bag对应的数据,包括车辆的数据、障碍物数据、绿色障碍物ID、速度、形态。车在运行过程中需要查看的不仅仅是仿真出来的场景,还要看一些跟Planner、控制相关的信息。

  • 2.使用仿真平台

仿真平台的使用方式大概分为以下几个步骤,如下图所示:


按照下图所示进入仿真官方平台,前提是拥有百度账号。


进入后,就可以使用它的功能进行仿真实验了。

四、Azure仿真平台使用

Azure是一种灵活和支持互操作的平台,它可以被用来创建云中运行的应用或者通过基于云的特性来加强现有应用。它开放式的架构给开发者提供了Web应用、互联设备的应用、个人电脑、服务器、或者提供最优在线复杂解决方案的选择。


上图是微软的一个仿真平台Azure,它不需要本地部署。

图中左侧的Build用来做持续集成,由于有很多的开发者会提交自己对Apollo修改后的代码,我们不可能每次都把代码下到本地进行验证。为了简化验证,团队会把已经编辑好的测试运例来测试开发者提交的代码是否正确,以此来判断开发者的代码对目前的Master的分支有影响。Build提供了对开发者代码验证的一种渠道。

Simulation主要用来验证代码的鲁棒性。Apollo团队在微软的Azure仿真平台上部署了很多场景,拿最新的代码去做这些场景下进行验证和测试,看相应模块在这些场景的
执行情况,最终得到代码的鲁棒性报告。该平台的地址是azure.apollo.auto。在该仿真平台运行自己的代码是不需要进行本地编译的,其使用流程如下所示:

首先是克隆Apollo在Github上的代码
然后再本地对相应的模块进行修改,例如Planning。
将代码提交到自己再Github的Apollo仓库中,可以是Master分支也可以是新建的分支
最后再微软Azure仿真平台选择目标场景对更新后的代码进行验证

运行之后会拿到一个报告,表示修改的代码再不同场景下的执行情况。如下图所示:

其中第一列的Scenario是一些场景,在仿真平台中,我们会把一段很长的路切割成很多的场景,比如有左转、左转有行人、有行人横插等。后面几列是对应场景的状态描述,Run Status表示场景的运行状态,如果后面的指标有一个失败,那么Run Status就是失败的。具体衡量的指标有:

碰撞检测、速度校验、On Road检测、Red-Light检测(是否有闯红灯的情况)、ARW检测(是否成功到达目的地)、Hard Break(急刹车)、加速度(它是影响体感的一个指标)。

本次对仿真平台的学习就到这里了,有什么不懂得地方可以一起探讨哦。

全部评论

相关推荐

2025-12-03 03:32
安徽大学 Java
点赞 评论 收藏
分享
2025-12-12 19:01
南京航空航天大学 C++
秋招没咋投,准备 wxg 转正之后摆烂了。结果不堪字节 HR 的骚扰还是面了一下字节。之前想去字节的时候怎么面都挂。现在想着随便面一下结果三面技术面都意外顺利还有加面。十月中旬字节发了意向,wxg 转正结果无响应。十月底字节拉了保温群,wxg 口头通过,系统显示考核中。十一月初和字节 ld 交流之后得知 base 居然能选海外,甚至能小 wlb 一下,wxg 无响应无人联系。十一月中旬把字节 base 转到了海外,wxg 流程灰了,一问超时忘处理了,过两天又变考核中了。十一月下旬字节换了海外 HR 对接,问了期望薪资,wxg 考核终于显示通过,无 HR 保温,无其他保温。十一月底给字节报了个天价,想吓吓他们,同时告诉微信字节要开了,微信无响应。同样十一月底字节 HR 告诉我确实给不到那么高,但是能拿期权补上,问能不能接受。微信无响应。同样十一月底字节 HR 告知了具体方案,符合预期。 微信无响应。十二月上旬催 wxg 不开我就盲拒了,wxg HR 火急火燎的打电话问情况,问期望。我给了一个不算夸张的总包数字,因为今年市场在涨,过了三天还不联系我,我再催,约时间下午打电话,非得在我给出的数字上压下去几万,微信又不差这点,为什么不能满足我,让我没有拒绝的理由呢?一番纠结抗争,求稳还是追求挑战,最终选择接受迎接新的挑战,因为堂吉诃德永远不会停下脚步!回想起来,在 wxg 谈薪的阶段,我认为并没有给予我一定的重视,即使 HR 表示我在实习期间的表现和之前的面评都很靠前。也没有感觉到想要争取我,虽然我表示拒了 offer 之后要给我加面委定 t6 再涨,但我三个月没面试让我面面委那就是白给,还是算了。有缘再见了我亲爱的 wxg,再见了曾经的梦中情厂,再见亲爱的 mt,再见亲爱的朋友们。也再见,北京的一切。我想润了。秋招结束,卸载牛客,下一个三年,下一个五年,下一个十年后再来看看。
面试中的大熊猫爱吃薯...:我嫉妒得狗眼通红
点赞 评论 收藏
分享
2025-12-31 18:42
复旦大学 Java
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务