Una colaboración de investigadores de EE. UU. y Japón ha demostrado que un ataque con láser podría usarse para cegar a los automóviles autónomos y eliminar a los peatones de su vista, poniendo en peligro a quienes se encuentren en su camino, según un comunicado de prensa.

Los automóviles autónomos o autónomos se basan en un tipo de sistema de radar giratorio llamado LIDAR que ayuda al vehículo a detectar su entorno. Abreviatura de Light Detection and Ranging , el sistema emite luces láser y luego captura sus reflejos para determinar las distancias entre él y los obstáculos en su camino.

La mayoría de los automóviles autónomos avanzados de la actualidad confían en este sistema para sortear obstáculos en su camino. Sin embargo, la colaboración de investigadores de la Universidad de Florida, la Universidad de Michigan y la Universidad de Electro-Comunicaciones en Japón demostró que el sistema se puede engañar con una configuración de láser bastante básica.

Cómo los investigadores engañaron a un coche autónomo
Los investigadores utilizaron un láser para imitar los reflejos LIDAR que suele recibir el sensor. En presencia de las señales láser, el sensor descontaba reflejos genuinos que provenían de los obstáculos reales, percibiéndolos así como si no existieran.

Con este método, los investigadores pudieron eliminar datos de obstáculos estáticos y peatones en movimiento. Cuando se usó contra un vehículo autónomo en condiciones de prueba, el ataque evitó que el auto decelerara en presencia del peatón, algo para lo que ha sido programado.

El ataque con láser se realizó desde el lado de la carretera de un vehículo que se acercaba, a no más de 15 pies de distancia del atacante. Los investigadores también usaron solo un software básico de seguimiento de cámaras para sus experimentos y podrían verse afectados desde una distancia mayor usando equipos más sofisticados.

¿Cómo se puede frustrar un ataque láser?
Este es el primer informe de un sistema LIDAR falsificado de alguna manera para evitar que detecte obstáculos. Se necesita un buen grado de precisión para cronometrar la señal láser hacia el sensor LIDAR para falsificar; sin embargo, los datos necesarios para sincronizar esto están disponibles públicamente de los fabricantes de LIDAR, dijo uno de los investigadores asociados con el estudio en un comunicado de prensa.

Los investigadores llevaron a cabo estas pruebas para ayudar a construir un sistema más confiable para sensores. Los fabricantes de estos sistemas ahora podrían hacer adiciones a su software para poder detectar instancias de tal ataque y cambiar a un sistema alternativo de detección de obstáculos. Alternativamente, el hardware también podría mejorarse en el futuro para defenderlos de tales ataques.

Con el auge de los sistemas de automóviles autónomos , un ataque a un sistema LIDAR es una forma plausible de confundir a los automóviles, especialmente cuando los humanos ya no están al volante. El resultado de tales ataques podría ser catastrófico, y se deben realizar esfuerzos en las primeras etapas para minimizar o eliminar dichas vulnerabilidades.

Los hallazgos de la investigación se publicaron en el sitio web de preimpresión arxiv.org y también se presentarán en el Simposio de Seguridad USENIX 2023.

Resumen

Los vehículos autónomos (AV) utilizan cada vez más sistemas de detección de objetos basados ​​en LiDAR para percibir otros vehículos y peatones en la carretera. Si bien los ataques existentes a las arquitecturas de conducción autónoma basadas en LiDAR se centran en reducir la puntuación de confianza de los modelos de detección de objetos AV para inducir la detección errónea de obstáculos, nuestra investigación descubre cómo aprovechar las técnicas de suplantación de identidad basadas en láser para eliminar selectivamente los datos de la nube de puntos LiDAR de obstáculos genuinos en el nivel del sensor antes de ser utilizado como entrada para la percepción AV. La ablación de esta información LiDAR crítica hace que los detectores de obstáculos de conducción autónoma no identifiquen ni localicen obstáculos y, en consecuencia, induce a los vehículos autónomos a tomar decisiones de conducción automáticas peligrosas. En este artículo presentamos un método invisible al ojo humano que oculta objetos y engaña a los vehículos autónomos’ detectores de obstáculos mediante la explotación de procesos de filtrado y transformación automáticos inherentes de los datos de sensores LiDAR integrados con marcos de conducción autónomos. Llamamos a estos ataques ataques de eliminación física (PRA) y demostramos su eficacia contra tres detectores de obstáculos AV populares (Apollo, Autoware, PointPillars) y logramos una capacidad de ataque de 45°. Evaluamos el impacto del ataque en tres modelos de fusión (Frustum-ConvNet, AVOD y Integrated-Semantic Level Fusion) y las consecuencias en la decisión de conducción utilizando LGSVL, un simulador de nivel industrial. En nuestros escenarios de vehículos en movimiento, logramos una tasa de éxito del 92,7% eliminando el 90\% de los puntos de nube de un obstáculo objetivo. Finalmente, demostramos el ataque’

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *