Хакеры нашли способы обмануть автопилот Tesla
Хакеры нашли способы обмануть автопилот Tesla
Группа исследователей из университета Южной Каролины, китайского университета Женжанга и компании из сферы безопасности Qihoo 360 нашли способ вызывать сбои в работе автопилота Tesla Model S. Они опробовали несколько методов с оборудованием стоимостью от десятков тысяч до нескольких долларов и добились разной степень эффективности, сообщает Wired.
Автопилот Tesla анализирует пространство вокруг машины тремя способами: с помощью радара, ультразвуковых датчиков и камеры. Исследователи атаковали каждый из них, но пришли к выводу, что только «обман» радара может привести к столкновению во время движения.
Для атаки на радар они использовали генератор сигналов стоимостью $90 000 и умножитель частот за несколько сотен долларов. Их расположили на тележке перед машиной и смогли заглушить радиосигналы, посылаемые радаром. «Когда сигналы глушатся, то «машина» исчезает, и нет никакого предупреждения», – рассказала профессор Вэнюан Сюй. Исследователи тестировали подход на стоящей машине, в движении этот опыт повторить было бы сложней, поскольку атаку также нужно направить под правильным углом. Но это вполне достижимо и от автопилота можно спрятать реальный объект на дороге.
Значительно проще можно «обмануть» ультразвуковые датчики, которые используются в машине для парковки и функции «вызова». Для этого исследователи использовали функциональный генератор или компьютер на базе Arduino и ультразвуковой преобразователь – оборудование стоимостью $40. Использовав его, можно создать для автопилота виртуальное препятствие или спрятать реальный объект.
Но самый простой и дешевый способ обмануть датчики – использовать звукопоглощающие материалы. Так, завернув одного из исследователей в акустическую пену, получилось сделать его невидимым для сенсоров.
Атаке также подверглись и камеры, но экспериментаторы не добились должного успеха. Они направляли лазеры и светодиоды прямо в объективы камер, но смогли только вывести из строя некоторые пиксели на матрице. В ответ Tesla выключала автопилот и предупреждала водителя о необходимости взять контроль на себя.
В Tesla прокомментировали исследование, поблагодарив ученых за определение потенциальных атак на сенсоры. «Мы проанализировали результаты работы команды Вэнюан и пришли к выводу, что у них нет воплощений в реальном мире, которые создали бы риск для водителей Tesla», – отметили в компании.
В мае у Tesla с включенным автопилотом произошла первая авария со смертельным исходом. Этот инцидент вызвал бурное обсуждение надежности систем беспилотных автомобилей.
Источник