2018年6月13日,由上海市经济和信息化委员会、上海市商务委员会、上海市长宁区人民政府指导,上海市长宁区青年联合会、亿欧公司联合主办,拼多多协办的“2018全球智能+新商业峰会”在上海长宁世贸展馆举办。
本次峰会以“AI落地,产业升级”为主题,现场聚集超过5000位AI行业内外人士,共同探讨AI目前面临哪些挑战,当下如何商业落地,未来将会怎样发展等问题。峰会采取“1+8”的组织架构,除了6月13日的“全球AI领袖峰会”外,14-15日将举办包括AI消费产品峰会、智能+新出行峰会、智能+大健康峰会智能+新金融峰会、AI国际化峰会、智能+教育峰会、智能+新服务峰会、智能+零售峰会在内的8场垂直峰会。
在“智能+新出行”峰会上,Roadstar.ai的联合创始人兼CTO衡量发表了“中国复杂路况下的无人驾驶:挑战、趋势与创新”的主题演讲。
【衡量现场演讲实录】
衡量:大家下午好!非常感谢刚才主持人的介绍,我是衡量,Roadstar.ai的联合创始人兼首席技术官。Roadstar.ai是去年5月份成立的,今年5月刚刚完成了1.28亿的A轮融资。很高兴今天有机会和大家分享过去一年我们做无人驾驶的经历和感悟。
做无人驾驶的初衷是让出行更安全、更便宜、更高效
为什么要做自动驾驶这件事情?Roadstar.ai目标是做Level4完全无人驾驶,这将彻底改变未来的出行,会让未来出行更安全,因为目前超过90%的道路交通事故是由驾驶员个人操作错误、粗心所导致的。也可以让我们的出行更加高效,车辆的时间利用率会提高到接近百分之百,并且极大减少停车场对城市空间的占用,使得我们有更多城市空间可以用做道路、绿地,让我们的出行更畅通,让空气更清洁。
无人驾驶还会极大地降低出行的成本,目前共享出行、出租车之类的业务驾驶员工资占到出行成本超过50%以上,并且人类司机的成本会只高不降,未来中国老龄化驱使下成本还会越来越高,破解这个“魔咒”的唯一办法就是无人驾驶,无人驾驶可以让我们有更多的时间做更多有益的事情,提高生产力,并且让所有会开车不会开车的人都享受到平等出行的权利。这一切都是我们做无人驾驶的初衷。
中国自动驾驶方面的法规落后于美国
美国从30年前就开始研究,现在在美国很多公司都在无人驾驶方面做出的很出色,既有像Google这样的巨头,也有新兴的初创科技公司。中国也是类似的情况,既有百度这样的大公司在领头打造自动驾驶的生态圈,也有像Roadstar.ai一样迅速崛起的无人驾驶新星。
在美国加州,每个参与无人驾驶研发的公司都需要提交年度报告,总结在测试中所发生的司机接管情况,根据接管情况可以计算出这个公司的车辆平均每多少英里需要一次接管,这个数字被很多人用来评估公司水平的标志。Waymo遥遥领先,紧随其后的是GM的Cruise,平均每次接管行驶里程都超过了1000英里,其中Google更是在亚利桑那州去掉了司机,采用远程接管的方式进行无人驾驶的运营。
然而,即便做到这个水平也不代表在中国可以轻松地开无人车。
在中国无人车是更加困难的,很多路口的车流互相穿插,大量的自行车、摩托车速度快而且轨迹难以预测。许多行人无视交通规则,横穿马路极为常见,即便在有隔离栏杆的道路上也会出现翻越栏杆的行人。
我把中国无人驾驶困难总结为三方面:
1、技术方面必须做到更好:
对道路上的行人、自行车、各种车辆必须要识别得更精准,决策规划要能及时、安全的应对违反交通规则的车和人。
2、压缩成本:
跟美国的出租车司机相比中国出租车司机的成本只有三分之一甚至更低,意味着必须要把无人驾驶系统做到更加低的成本才能替代人类司机。
3、法规亟待完善:
中国只有北京、上海、广州、重庆有政府明确的无人驾驶测试牌照以及上路规范,拿到牌照以后只能在有限的几公里、十几公里的测试路段行驶。相比之下,美国有21个州完全开放有安全司机的自动驾驶,其中7个州已经开放了没有安全司机的自动驾驶,并且拿到牌照后车辆可以在全州的任何地方开。
今天我的演讲中主要会集中于前两个挑战——我们如何在更低的成本下做出更好的性能。
要解决这个问题首先了解一下无人车是怎么工作的,无人车的工作主要由传感器、感知、定位、决策规划、控制、高精度地图这六大块组成。
进入多传感器融合时代,大大降低了成本
成本问题主要跟传感器相关。在2007年DARPA挑战赛时大多数车队的车上装了很多传感器,那时候多传感器完全不融合的,当然车辆需要新功能的时候就增加新的传感器,使得有些车上激光雷达超过10个,一辆车光传感器就花了百万美金。
后来,大家发现其实不需要那么多传感器,用一个高线数的激光雷达就可以同时完成感知、定位等各方面要求的工作,这个时候无人驾驶进入了单传感器不融合的时代。但是一个高性能的激光雷达极其昂贵,一个就得10万美金。之后所有研发人员又进一步改进,发现如果使用多个传感器的话,对每个传感器要求不高,总的成本反倒会继续下降,就进入了多传感器后融合的时代。
传统的传感器融合针对每个传感器都有相应的感知算法,在对每个传感器的数据进行处理后,把感知结果汇总起来,就是目前的传感器后融合技术路线。
Roadstar.ai的技术路线是多传感器前融合,所谓前融合就是在原始数据级别就把所有传感器的数据融合在一起,把多个低成本低性能的传感器合并到一起来使用。我们的感知依赖于所有的信息,既包括几何信息也包括颜色、纹理等其他信息。在我们的算法中判断这里有一辆车因为这个物体的颜色、形状各方面特征都符合车的特征,这样极大地提高了感知的准确率,也降低了对单一传感器的要求,使得成本可以降低。
这是激光雷达和摄像头融合的结果。图中彩色的扫描线是激光雷达的返回,重叠在前置、左置、右置的三个摄像头拍到的图像上,这就是为什么对车周围的每一个物体都有来自于激光雷达的几何信息和摄像头的颜色信息,通过这些信息可以做到非常精准的感知以及对周围物体的进行行为预测。
这是物体检测和跟踪的结果,对路上的每一辆行为都会给出三维的BoundingBox,左上角有一个数字ID在跟踪过程中都是不变的,显示跟踪效果非常好。右下角有速度的信息,可以看到速度的估计非常准。
去年9月份我们开始在加州路测,今年1月份开始在中国路测,现在两边的车积累里程超过了1万英里。在中美我们都测试了恶劣天气下的表现,即使雨非常大,摄像头返回的图像已经完全模糊掉了,在深度融合的帮助下,模糊掉的图片信息依然能够被充分地使用,且能用它跟激光雷达、毫米波雷达等结合起来做到非常准确的雨天感知。
最后是两个我们在国内路测是视频,大家可以看到我们的无人驾驶车能够自如应对复杂的路况,包括突然插入的车辆、没有信号灯的人行横道、闯红灯的行人。在国内基本上每次路测都会有很多精彩镜头,所以我们就把所有的精彩镜头汇总成一个合集,请大家欣赏。以上就是我的分享,谢谢大家!