不知道大家有没有注意到,5月至今智能驾驶领域的标杆性指数CS智汽车已经悄悄上涨了13.56%,跑赢沪深300超17个点(数据来源:WIND,截至20230718)。简单找一下原因,主要在于一系列新能源车企在新发车型中陆续推出了城市智能辅助驾驶功能,同时马斯克的访华又加深了市场对于智能驾驶加速应用的期待。 

正是城市智能驾驶的落地,使很多行业人士将今年称为“智能驾驶元年”。 $智能驾驶ETF(SH516520)$

在L2+级别自动驾驶阶段中,应用场景可以分为泊车、高速和城市三大类,其中自动泊车和高速辅助驾驶两类场景在去年乃至前年推出的车型中就已有广泛应用,但城市场景才是让消费者深刻感知智能驾驶技术的直接途径。 

一组来自“新势力”的数据:汽车平均有71%的里程是在城市道路行驶,对应时间占车主总驾车时长的90%。这也意味着,如果不能在真正的高频和刚需场景实现辅助驾驶,所有的商业规划都是空中楼阁,好比一幢高楼层的房子,有没有电梯的差别,城市智能辅助驾驶能给消费者体验带来根本变化。

但是,攻克城市场景的难度早已为业内公认,复杂的道路状况、多样的交通参与者、变化莫测的意外行为,都是对智能驾驶系统巨大的挑战。例如,城市存在潮汐车道,地面有重复画线,标线和箭头有磨损,还有差异很大的红绿灯体系,更别说高频基建附带的施工改道,千奇百怪的三轮车、清扫车和垃圾车,以及会侵入道路的行人、宠物等等,都是城市场景需要解决的corner case。

根据某家“新势力”去年的说法,城市智能驾驶的代码量是高速的6倍,感知模型数量是高速的4倍,预测/规划/控制相关代码量是高速的88倍。 

但就在今年,随着技术的成熟、数据的积累和算法的改进,各家车企的城市智能辅助驾驶功能终于得以依次亮相,其基础模型就是BEV+Transformer架构。$恒生科技ETF(SH513130)$

所谓的BEV(Bird's-eye-view鸟瞰图)就是指将车身四周不同视角的摄像头感知到的图像数据映射到俯视的鸟瞰图视角进行统一表征,通过空间处理2D图像转换为3D的“上帝视角”。 

Transformer模型则是ChatGPT的底层算法,可以在感知过程中增加BEV特征的时序信息,更好地检测当前时刻被遮挡的物体和动态目标,将静态的3D空间转化为连续性的4D“视频”。 

相比于传统的2D直视图+CNN(卷积神经网络)模型,BEV+Transformer的时空融合建模能够实现更加全面、准确、高效和连续的感知结果,有利于解决很多corner case。 

例如,在交通拥堵、路口复杂、路面不规则等情况下,BEV+Transformer以连续的俯视视角生成更全面的感知情况,从而做出更可靠的路径规划;在并车、合流等复杂任务中,以及应对交通事故、路段封闭等突发情况时,BEV+Transformer能够实时输出交通状况,并对路面行人、车辆的行动路径作出预测,便于智能驾驶系统声称更加合适的应急策略。 

另外,过去由于技术所限,城市导航辅助的驾驶水平不会超过一个刚刚从驾校毕业的司机——“新手”开车只能选择谨慎,安全至上,首先保证不违反交规,不发生事故,万一发生事故也要避免己方责任,于是系统要“礼让”所有车辆和行人,变道时不敢与其他车辆较劲,只能频频刹车。题目如果超纲了,系统就要把车辆交给驾驶员接管,这就大大影响了功能使用体验。 $华泰柏瑞恒生科技ETF联接(QDII)C(OTCFUND|015311)$

但在用于生成式人工智能的Transformer模型应用后,智能驾驶汽车能够适当地主动表达出自己的“意图”,并根据其他车辆的动态随时调整姿态,驾驶姿态更接近一个有一定经验的司机。 

在此基础上,部分领先车企又迭代升级出了占用网络(Occupancy Networks)模型,将汽车周边环境划分为多个大小一致的立方体,即3D空间中的“体素”,类似于2D空间中的像素,系统快速识别每个体素是否被占用,并把被占用的体素显示出来,判定其为障碍物,继而决定车辆是否需要躲避,从而更加直接地打造3D空间

应该说,基于技术进步实现的城市智能辅助驾驶功能,是智能驾驶真正被市场所认可和接受的根本

今天,我们将从政策端和基本面进一步剖析智能驾驶产业链存在的机会。

#AI到底是风口还是泡沫?##重磅!微软AI助手定价了#

追加内容

本文作者可以追加内容哦 !