У автономных машин возникли неприятности с законом

Константин Болотов, . Фото и иллюстрация фирм-производителей

Департамент транспорта Калифорнии (пожалуй, главного штата-полигона для машин-роботов) решил серьёзно ужесточить требования к испытаниям автономных машин на улицах. Водитель за рулём был обязателен и раньше, теперь стало больше ответственности, строгой отчётности и прочей волокиты. Создатели Гугломобиля разочарованы этой инициативой.

Публичная дискуссия об автономном вождении набирает в США всё большие обороты. Наряду с производителями в дебаты включаются политики и учёные. Как сообщает агентство Bloomberg, исследователи из транспортного университета Мичигана проанализировали аварийность машин-роботов от компаний Google, Delphi, Audi и пришли к неутешительному выводу: вероятность ДТП для легковушек с автопилотом в два раза выше, чем у обычных автомобилей. Правда, все аварии — мелкие, и произошли они по вине водителей других машин, которые въезжали в роботов сзади. Причина — автономный транспорт «слишком законопослушен».

Недавно выяснилось, автопилот Теслы не работает в ненастную погоду. Илон Маск признал проблему и пообещал решить. Менеджер проекта Jaguar XF Стивен Боултер на днях раскритиковал нововведение Теслы, назвав его внедрение безответственным: «У нас есть такое же оборудование, как у Теслы. И мы могли бы запустить на рынок нечто подобное, но не станем этого делать. Если что-то, не дай бог, случится, такой прецедент напугает водителей, законодателей и отбросит развитие технологий автономии назад на десятилетие. Наша задача — довести полностью самоуправляемый автомобиль до совершенства. Только тогда мы предложим его потребителю».

Вот несколько примеров излишней осторожности. Однажды роботу нужно было перестроиться через три ряда, чтобы съехать с автобана. Машина отлично контролировала обстановку, но «не была уверена», что в быстром и плотном потоке движущихся с разной скоростью автомобилей найдётся пространство для манёвра, — человеку пришлось взять управление на себя. Другой случай: заметив пешехода на краю тротуара, робот резко дал по тормозам и заработал наезд сзади. Перестраховывающиеся автономники неоднократно были замечены за движением по хайвею со слишком низкой скоростью. Они не могут объехать велосипедиста, потому что для этого придётся пересечь сплошную линию разметки, — им проще тормозить до полной остановки. Наконец, учёные задаются риторическим вопросом: сможет ли автономная машина пожертвовать собой и своими пассажирами, направившись в пропасть, чтобы избежать убийственного столкновения со школьным автобусом, набитым детьми?

Шеф BMW Харальд Крюгер тоже отреагировал на проблемный тесловский автопилот. Заявил, что такой подход неприемлем: «Если бы это было приложение для смартфона, то ладно — пусть оно готово только на 70−80%, вы его потом доведёте до ума после консультаций с клиентами. Когда же речь идёт о системах безопасности, действовать подобным образом абсолютно невозможно».

Иногда нарушение водителем ПДД — единственный способ уйти от неприятностей, реже — вопрос жизни и смерти. Получается, люди должны научить робота противозаконным действиям? «Это дилемма, требующая решения, — говорит Радж Ражкум из университета Карнеги-Меллона, изучающий автономное вождение совместно с GM. — Внутри нашей группы не прекращается дискуссия по данной теме. В основном мы решили придерживаться ограничения скорости». Дмитрий Долгов, работающий в компании Google, считает, что роботам стоит добавить «немного агрессии», дабы те вели себя подобно людям, понятнее и более предсказуемо. Но всё равно автономная машина должна быть так же осторожна, как бабушка за рулём. «Да, есть ситуации, когда мелкое нарушение кажется нам нормальным. Но если вы запрограммируете машины не следовать закону, как далеко это всё зайдёт? — вопрошает Брэндон Шоттли из Мичиганского университета. — Мы увязнем по уши».

Комментарии 
Поделиться
Лайкнуть
Отправить


Комментарии

Загружаем комментарии...