Разделы

ПО Бизнес Техника

Автопилот Tesla удалось заманить на встречную полосу с помощью рисунка на асфальте

С помощью отметок на дороге, которую бортовая система ошибочно приняла за продолжение разметки, TeslaModelS 75 удалось заставить ехать по тестовой встречной полосе. В Tesla считают, что эксперимент был слишком искусственным.

Вы полосой ошиблись

Китайским исследователям удалось заставить автопилот Tesla выехать на встречную полосу. Для этого оказалось достаточно нарисовать на асфальте три маленьких квадрата.

Автопилот (Enhanced Autopilot) автомобилей Tesla ModelS 75 полагается на технологии «машинного видения» для определения разметки на дороге. Технологию нельзя назвать простой: обрабатывается колоссальное количество данных, которые внутренняя сеть бортовой системы получает от видеокамер, ультразвуковых сенсоров и радара. Визуальную информацию обрабатывают сразу несколько ядер CUDA, которые и составляют основу процедуры детектирования и отслеживания наличия или отсутствия разметки в каждый момент времени.

Исследователям из компании Tencent Keen Security Lab удалось выяснить, что при определенных условиях всю эту систему можно сбить с толку, нарисовав на земле несколько прямоугольников; а точнее, налепив несколько стикеров. Система интерпретирует их как продолжение разметки и послушно съезжает с положенной полосы. Исследователям удалось таким образом загнать автопилот на встречную полосу.

«Атаку подобного рода легко реализовать, материалы для неё добыть проще простого», — отметили исследователи в своей публикации.

Представители Tesla заявили, что тестовый сценарий слишком далек от действительности, а главное, что водители в любой момент могут перехватывать у автопилота управления; и более того, должны быть готовы к этому. К тому же, как указывают представители Tesla, бортовая система тестировалась KeenSecurity в условиях, далеких от реальной окружающей среды; в действительности эта система использует множество различных факторов для корректной идентификации разметки и окружающих условий, так что заставить машину «ошибиться полосой» труднее, чем кажется.

tesla600_1.jpg
Автопилот Tesla оказался беззащитен перед рисунками на асфальте

Помимо этого специалисты Keen Security исследовали еще два слабых места в бортовых системах Tesla ModelS 75; одна их них позволяла получать root-доступ к управляющему блоку автопилота (для чего использовались уязвимости в ПО автомобиля), а через него — получить возможность удаленно управлять рулем через CAN-шину. Дошло до того, что эксперты использовали игровой джойстик, подключенный к смартфону, и таким образом удаленно управляли автомобилем.

Но программные уязвимости, позволявшие подобное, к настоящему времени уже исправлены.

Дворники в бета-версии

В рамках третьего эксперимента исследователи заставили дворники машины включаться без необходимости.

В отличие от других автомобилей, где дворники включаются по команде от датчиков влажности, машины Tesla полагаются на многочисленные камеры, установленные на машине, которые определяют, идет дождь или нет.

CNews Analytics: Рейтинг операторов фискальных данных 2024
ритейл

Как ни странно, достаточно подставить камерам нужные изображения (например, на экране планшета), и система решит, что пошел дождь, и задействует дворники.

Реализовать такую атаку на практике — не самая простая задача, но, по мнению авторов исследования, камеры автомобиля Tesla можно сбить с толку с помощью «рекламы на заднем стекле автомобиля, едущего впереди» или рекламных щитов, в общем, практически любых движущихся изображений, которые попадают в поле зрение камеры на автомобиле.

В Tesla ответили, что KeenSecurity просто поставили телевизор прямо перед лобовым стеклом автомобиля, поэтому говорить о реалистичности сценария не приходится. Кроме того, автоматическая система управления дворниками все еще находится на этапе бета-тестирования, о чем прямо говорится в инструкции для владельцев.

«Из всех трех экспериментов наиболее "необнадеживающим" является возможность перенаправить автомобиль на встречную полосу, — считает Михаил Зайцев, эксперт по информационной безопасности компании SECConsultServices. — То, что автопилот с таким дефектом оказался в серийно поставляемом автомобиле, в очередной раз демонстрирует недостатки тестирования информационных систем в автомобильной отрасли. Даже в таких передовых компаниях как Tesla».

Роман Георгиев