
神经网络加快自动驾驶感知算法发展。算法是决定自动驾驶车辆感知能力的核心要素,应用于感知层面的神经网络模型可以分为两类,一类是以CNN、RNN为代表的小模型,另一类是Transformer大模型,当前小模型向大模型迭代趋势明确。
Transformer大模型的注意力机制成为自动驾驶感知算法的利器。Transformer基于注意力(Attention)机制,凭借优秀的长序列处理能力和更高的并行计算效率,2021年由特斯拉引入自动驾驶领域。Transformer与CNN相比最大的优势在于其泛化性更强。CNN只能对标注过的物体进行相似度的比对,通过不断学习完成对该物体识别的任务;而Transformer可以通过注意力层的结构找到更基本的元素与元素间之间多个维度的相关信息进而找到一种更泛化的相似规律。同时,不同于RNN存在存储时间长度有限以及顺序依赖的问题,Transformer模型具有更高的并行计算效率并且可以对长距离依赖进行建模。
按照信息融合发生的环节,自动驾驶感知技术可以分为前融合、特征融合以及后融合。后融合即目标级融合,指单个传感器分别完成感知任务后再进行融合,可理解为有多少个传感器即需要几套感知算法。前融合即数据级融合,指对不同传感器的原始数据进行空间和时间上的对齐,再从融合数据中提取特征向量进行识别,整套自动驾驶系统仅需要一套感知算法。