Sécurité : Les chercheurs démontrent comment des « objets fantômes » peuvent forcer les véhicules autonomes à freiner
Des chercheurs en sécurité ont démontré comment des panneaux d’affichage détournés pouvaient être utilisés pour embrouiller la technologie des voitures autonomes, les forçant à freiner, ou pire encore. Les systèmes de conduite autonome ont fait des progrès considérables ces dernières années, mais ils n’ont pas été exempts d’erreurs, de confusions et d’accidents.
Ce système a encore un long chemin à parcourir avant de pouvoir être considéré comme totalement autonome et sûr à utiliser sans la supervision d’un conducteur humain, et comme les entreprises technologiques continuent d’affiner leurs plateformes, l’accent tend à être mis sur les conditions météorologiques, la cartographie et la manière dont les voitures doivent réagir aux objets dangereux – comme les personnes sur la route ou d’autres voitures.
Mais comme le rapporte Wired, il peut y avoir d’autres dangers impossibles à détecter à l’œil nu.
publicité
Panneaux d’affichage électroniques complices
De nouvelles recherches menées par des universitaires de l’Université Ben Gourion du Néguev, en Israël, suggèrent que les images dites « fantômes » – comme un panneau stop créé à partir de lumières clignotantes sur un panneau d’affichage électronique – pourraient tromper les systèmes d’IA et provoquer des actions ou des mouvements particuliers.
Ces actions involontaires pourrait non seulement provoquer des embouteillages, mais aussi des accidents de la route plus graves, les pirates informatiques laissant peu de traces de leurs activités – et laissant les conducteurs perplexes sur les raisons pour lesquelles leur véhicule intelligent a soudainement changé de comportement.
Des projections de lumière ne couvrant que quelques images et affichées sur un panneau d’affichage électronique pourraient provoquer des « freinages ou des embardées » des voitures, explique le chercheur en sécurité Yisroel Mirsky, ajoutant que « la voiture va simplement réagir, et (son conducteur) ne comprendra pas pourquoi ».
Testé sur de vrais modèles
Les tests ont été effectués sur un véhicule à l’aide de la dernière version Autopilot de Tesla, et MobileEye. Selon Wired, un panneau stop fantôme apparaissant pendant 0,42 seconde a trompé la Tesla, alors que seulement 1/8e de seconde a suffi pour duper MobileEye.
Les expériences sont fondées sur des recherches antérieures qui utilisaient des projections de lumière en fraction de seconde – comme la forme d’un être humain – pour embrouiller les véhicules autonomes sur la route. Bien que ces tests aient eu le même effet, un panneau d’affichage numérique, en théorie, serait plus pratique pour les agresseurs qui cherchent à perturber la circulation à plus grande échelle.
Les résultats de cette recherche seront présentés en novembre lors de la conférence de l’ACM sur la sécurité informatique et des communications.