硬科普:为什么自动驾驶需要5G?看完就懂
什么叫自动驾驶?
自动驾驶分为6个等级:
Level 0:人工驾驶,无驾驶辅助系统,仅提醒。
Level 1:辅助人工驾驶,可实现单一的车速或转向控制自动化,仍由人工驾驶(如定速巡航、ACC)。
Level 2:部分自动驾驶,可实现车速和转向控制自动化,驾驶员必须始终保持监控(如车道中线保持)。
Level 3:有条件自动驾驶,可解放双手(hands off),驾驶员监控系统并在必要时进行干预。
Level 4:高级自动驾驶,可解放双眼(eyes off),在一些预定义的场景下无需驾驶员介入。
Level 5:全自动驾驶,完全自动化,不需要驾驶员(driverless)。
自动驾驶基本原理
关于自动驾驶的基本原理,需了解三大关键词:传感器、数据融合(Data Fusion)、100%安全性决策。
传感器
自动驾驶需要的传感器系统主要有三种类型:摄像头、雷达和激光雷达。
摄像头
摄像头是自动驾驶必备的传感器,包括前视、后视和360度摄像系统,后视和360度摄像头主要提供360度外部环境呈现,前视摄像头主要用于识别行人、车辆、道路、交通标志等。
雷达(RADAR)
自动驾驶需要多个雷达传感器,其功能是无线探测和测距,主要用于盲点检测、防碰撞、自动泊车、制动辅助、紧急制动和自动距离控制等应用。目前的雷达系统主要基于24GHz和77GHz,相较于24GHz,77GHz在测量距离和速度时具有更高的精度,以及更高的角分辨率,且还具备天线尺寸小、干扰小等优点。
激光雷达(LiDAR)
LiDAR,即Light Detection And Ranging的缩写,它是一种基于激光的系统,除发射器(激光器)外,系统还具备高灵敏度的接收器。LiDAR主要用于测量静止和移动物体的距离,并通过处理提供所检测物体的三维图像。
LiDAR应用于自动驾驶所面临的挑战是,如何克服在雨雪、雾、温度等环境影响下识别较远距离的物体,同时,这玩意成本太高,目前不适合汽车领域的大规模部署。
数据融合(Data Fusion)
数据融合就是将不同传感器(如雷达、摄像头和激光雷达)数据进行智能化合成,实现不同信息源的互补性、冗余性和合作性,从而做出更好、更安全的决策。比如摄像头具有分辨颜色(识别指示牌和路标)的优势,可易受恶劣天气环境和光线的影响,但雷达在测距、穿透雨雾等有优势,两者互补融合可作出更精确、更可靠的评估和判断。
100%安全性决策
一旦出现交通事故,重则导致人身伤亡,因此,自动驾驶对技术安全的要求相当苛刻,需实现接近100%的安全性。
简而言之,自动驾驶就是通过传感器收集全面的环境信息,再对信息融合处理,并作出接近100%安全性决策。
目前多数人所谈的自动驾驶,都是基于汽车本地端的传感器、数据融合来实现决策的。
但是,你有没有想过,这种单凭本地端实现的方式存在一些局限性。
当汽车横穿十字路口时,自动驾驶能预知从左侧高速驶来的大卡车吗?
由于易受雨、雪、雾、强光等环境影响,摄像头能始终准确识别指示牌和红绿灯吗?
再举一个例子。
当自动驾驶在高速路上以130公里/小时行驶时,摄像机/雷达融合无法安全地检测到前方超过120米距离外的停车,这将触发超过5米每平方秒的紧急制动,这是无法接受的。
总之,道路环境异常复杂,雷达、摄像头和激光雷达等本地传感系统受限于视距、环境等因素影响,要实现100%安全性,自动驾驶需要弥补本地传感器所欠缺的感知能力。
简单的理解,本地传感系统让汽车实现了“眼观六路”,但自动驾驶还需要“耳听八方”。
这就需要C-V2X闪亮登场。
图片新闻
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论