内容字号:默认大号超大号

段落设置:段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

别听创业公司CEO们吹了 自动驾驶汽车还得好几年才成真

2018-07-10 16:15 出处:清屏网 人气: 评论(0

如果只听首席执行官们的话,你完全可能会相信完全自动驾驶汽车只有几个月就会上路了。2015年,埃隆·马斯克预测到2018年,特斯拉将实现完全自动驾驶;谷歌也是。Delphi和MobileEye将自己的级别4系统定于2019年,Nuteomy也计划于同年在新加坡街头部署数千辆无人驾驶出租车。通用汽车将在2019年推出一款完全自动驾驶的汽车,没有方向盘,也没有司机干预的能力。而在这些预测背后的实实在在的资金,完全押注于一个假设,即软件能够赶上这波炒作。

从表面上看,完全自动驾驶似乎比以往任何时候都更接近于现实。Waymo已经在亚利桑那州的部分公开道路上进行测试。特斯拉和其他许多模仿者已经开始销售一种有限自动驾驶汽车,司机可以在意外情况下进行干预。虽然发生过几次碰撞,也出现过致命事故,但按照CEO们的逻辑,只要系统不断改进,离实现完全自动驾驶就不遥远了。

但是事实上,这一梦想可能要比我们想象的还要不可及。人工智能专家越来越担心,自动驾驶系统可能需要数年甚至数十年才能可靠地避免事故。随着自训系统在应对现实世界时不断发生混乱,纽约大学的Gary Marcus等专家正准备对预期进行重新校准,他们也将之称为“人工智能的冬天”。这一延期可能会给依赖自动驾驶技术的公司带来灾难性后果,并使得在整整一代人的时间内无法实现完全自动驾驶。

不难看出为什么汽车公司对自动驾驶持乐观态度。在过去十年中,深度学习——一种使用分层机器学习算法从大量数据集中提取结构化信息的方法——推动了人工智能和技术行业发生几乎不可思议的进展。它支持了谷歌搜索、Facebook新闻推送、会话式语音到文本算法和冠军围棋系统。在互联网之外,我们利用深度学习来探测地震,预测心脏病,并在摄像头上标记可疑行为等。

但是深度学习需要大量的训练数据才能正常工作,这些数据几乎包含了算法将遇到的每一种场景。例如,只要提供了能显示每种动物形象的训练数据,像谷歌Images这样的系统就会非常善于识别动物。Marcus将这种任务描述为“插值”,对所有标记为“豹猫”的图像进行调查,并确定新图像是否属于该组。

工程师可以在数据的来源和结构上有所创新,但它对给定算法能达到的范围设置了严格的限制。同样的算法无法识别一只豹猫,除非它被给予了数千张豹猫的照片。而经过训练的算法,即使被给予了家猫和美洲虎的照片,也能够分辨出其中的豹猫。这一过程被称为“概括”,需要一套不同的技能。

长期以来,研究人员认为他们可以用合适的算法提高概括能力,但最近的研究表明,传统的深度学习在概括方面比我们想象的还要差。一项研究发现,传统的深度学习系统很难概括到视频的不同帧,在背景发生细微变化的情况下,会将同一只北极熊标记为狒狒、猫鼬或黄鼠狼。每一种分类都是基于数百个因素的综合,即使图片的微小变化也能完全改变系统的判断,这也正是其他研究人员在对抗性数据集上所利用的理论。

Marcus指出,聊天机器人热潮是针对概括问题进行炒作的最新例子。“2015年,我们被承诺会很快使用上聊天机器人,”他说。“但实际的体验效果并不好,因为这不仅仅是收集数据的问题。”当你和一个人在网上聊天时,你不仅仅希望他们重提以前的对话。你想让他们对你说的话做出回应,利用更广泛的对话技巧来产生独有的回应。深度学习并不能实现这种聊天机器人。最初的炒作一旦消退,企业对聊天机器人项目就失去了信心,很少有企业还在积极开发中。

这让特斯拉和其他自动驾驶公司面临了一个可怕的问题:自动驾驶汽车会不会像图像搜索、语音识别和其他人工智能成功故事一样不断进步?还是会遇到聊天机器人这样的概括问题?自动驾驶是插值问题还是概括问题?驾驶究竟有多不可预知?

现在要想知道这些问题的答案可能还为时尚早。“无人驾驶汽车就像科学实验,我们并不知道它的答案,”我们以前从来没有能够实现这种水平的自动驾驶,所以我们不知道这是什么样的任务。就识别熟悉的对象和遵循规则而言,现有技术应该能够胜任这项任务。但Marcus担心,在事故多发的情况下,要想良好驾驶,可能比业内人士所认为的还要复杂。“令人惊讶的新事物出现,对深度学习来说并不是一件有益的事情。”

我们的实验数据来自公共事故报告,每一份报告都有一些不寻常的细微变化。2016年的一次致命撞车事故中,一辆Model S汽车全速驶入一辆白色牵引拖车的后部,事故发生原因是系统被拖车的高度和明亮的太阳光反射所干扰。今年3月,一名女子在横穿马路时,被一辆自动驾驶的Uber汽车撞死。根据NTSB的报告,Uber软件将这名女子误识别为一个未知物体,然后识别为一辆汽车,最后识别为一辆自行车,每次识别都会产生不同的预测。在加州的一次撞车事故中,一辆Model X汽车在撞击前的瞬间转向障碍物并加速,原因尚不清楚。

每一次事故似乎都是一个边缘案例,都是工程师们无法预料的事情。但几乎每一次车祸都涉及到某种不可预见的情况,如果没有概括能力,这都将会是自动驾驶汽车第一次处理这些情况。结果将是一连串侥幸的意外,随着时间的推移,这些意外将会变得越来越普遍或越来越危险。对于怀疑论者来说,这些情况的出现预示着自动驾驶汽车的发展遇到了瓶颈。

Drive.AI创始人、前百度高管、业内最著名的支持者之一吴恩达认为,问题不在于建立一个完善的驾驶系统,而在于训练旁观者预测自动驾驶行为。换句话说,我们可以让道路变得适合汽车安全驾驶。作为一个不可预知的例子,我问他现代系统在没有见过的情况下,是否可以处理一个踩着高跷的人。“我想很多自动驾驶团队可以处理这样的情况,”吴恩达称。“话虽如此,但在马路上踩着高跷是非常危险的。”

他说:“与其建立人工智能来解决高跷问题,我们应该与政府合作,要求人们做到守法和遵守规则。安全不仅仅关乎人工智能技术的质量。”

深度学习并不是唯一的人工智能技术,各大公司已经在探索替代方案。虽然技术在业内受到严密保护,但许多公司已转向基于规则的人工智能,这是一种让工程师将特定行为或逻辑硬编码进其他自主系统的老技术。它不具备仅仅通过学习数据来编写自己行为的能力,但它会让公司避免一些深度学习的局限性。但是,由于深度学习技术仍然深刻地塑造了感知的基本任务,很难说工程师会如何成功地隔离潜在的错误。

Lyft董事会成员、风险投资人Ann Miura-Ko说,她认为问题的一部分是对自动驾驶汽车本身的高期望,这种期望将任何不完全自主的行为归类为失败。“期望它们实现从级别0到级别5的跨越,是预期上的失误,而不是技术上的失败,”Miura-Ko说。“我认为所有这些微小的改善,都是迈向完全自动驾驶的特别之处。”

不过,目前还不清楚自动驾驶汽车会保持多久这样的状态。像特斯拉Autopilot这样的半自主产品已经足够智能,可以处理大多数情况,但是如果发生不可预知的事情,就需要人工干预。如果出了问题,很难知道是汽车还是司机的错。对于一些批评者来说,这种混合的汽车可以说不如人类司机安全,即使错误很难完全归咎于机器。Rand Corporation的一项研究估计,无人驾驶汽车必须行驶2.75亿英里,才能证明它们和人类司机一样安全。与特斯拉Autopilot有关的第一个致死事件,发生在项目进行到大约1.3亿英里的时候,远远低于标准。

但如果负责汽车感知物体并决定做出反应的核心仍是深度学习的话,改善事故率可能比看上去更难。“这不是一个容易孤立的问题,”杜克大学教授Mary Cummings表示。她指的是今年早些时候Uber发生的一次撞车事故,该事故造成一名行人死亡。“感知-决策周期通常是相互关联的,就像这起事故一样。由于感知的模糊,系统决定什么也不做,而紧急制动因为传感器发出了太多错误警报而被关闭了。”

这起事故以Uber暂停其自动驾驶的夏季测试而告终,这对其他计划进行测试的公司来说是一个不祥之兆。假设里程数最多的公司将构建最强大的系统,那么整个行业的公司都在竞相获取更多数据来解决问题。但在这些公司发现数据问题的地方,Marcus发现了更难解决的问题。“他们只是在使用自己所拥有,并希望能发挥作用的技术,”Marcus说。“他们依赖大数据,因为这是他们的拐杖,但没有证据能让你达到我们需要的精确度。”


分享给小伙伴们:
本文标签: 自动驾驶CEO

相关文章

发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。

CopyRight © 2015-2016 QingPingShan.com , All Rights Reserved.

清屏网 版权所有 豫ICP备15026204号