TESLA
Engañan al 'autopilot'
de Tesla para que vaya a más del doble de la velocidad permitida.
Una simple modificación
en una señal de tráfico lo ha hecho pasar de 35 millas por hora a 85 millas por
hora.
El piloto
automático de Tesla puede ser menos fiable de lo que asegura la compañía
fabricante de coches eléctricos. Con una pequeña marca realizada con un
trozo de cinta un grupo de investigadores ha conseguido engañar al autopilot de
primera generación de la compañía para que varíe su velocidad
considerablemente.
Los hackers han hecho
una modificación en una señal de tráfico de limitación de velocidad. Se suponía que el automóvil debía
circular por debajo de las 35 millas por hora (es decir, unos 56 kilómetros por
hora), sin embargo, han añadido una pequeña pegatina para hacer que el 3 se
asemejara a un 8.
El Tesla ha sucumbido al engaño. El sistema de inteligencia
artificial del coche eléctrico ha interpretado que la señal de limitación de
velocidad marcaba en su lugar 85 millas por hora (casi 137 kilómetros por
hora). Este sutil cambio ha ocasionado que el vehículo se pusiera a más
del doble de la velocidad permitida en dicha vía, suponiendo un gran
peligro para otros usuarios de la misma.
A los ojos de
cualquier conductor humano, puede identificarse claramente que, pese al
trozo de cinta, continúa siendo un 3 con algún tipo de añadido, sin embargo, la
IA de Tesla no lo ha tenido tan claro.
En realidad, no ha
‘picado’ un solo Tesla, sino dos. Los modelos que se han puesto a prueba han
sido un Tesla Model X y un Model S, ambos del año 2016. Los dos incorporan
el sistema de cámaras Mobileye EyeQ3, capaz de leer señales y mandar la
información al asistente de velocidad del automóvil. Tesla lanzó su Speed Assist en 2014 y
lo ha ido mejorando con el paso del tiempo y las pruebas realizadas.
Un ‘troleo’ a Tesla por
una buena causa
La prueba por la que se
ha ‘tomado el pelo’ al coche de Elon Musk ha partido de una iniciativa de un grupo
de hackers de la compañía de seguridad McAfee, en concreto
del laboratorio McAfee Advanced Threat Research.
En un post aclaran cuál
era su intención y cuáles son sus metas: “Nuestro objetivo específico en McAfee
Advanced Threat Research es identificar y aportar luz a un amplio espectro
de amenazas en el complejo panorama actual. Con el hackeo de modelos
estudiamos cómo los enemigos pueden atacar y evadir la inteligencia
artificial. Así tenemos una oportunidad increíble de influir en la conciencia,
la comprensión y el desarrollo de tecnologías más seguras antes de que se implementen de
una manera que tenga un valor real para el enemigo”, cuentan.
El laboratorio de la
compañía se seguridad advirtió tanto a Tesla como Mobileye de lo ocurrido para
que mejoren sus tecnologías. Afirma que han agradecido la investigación, aunque
por el momento “no han compartido ningún plan actual para abordar el problema
en la plataforma existente”. Desde Mobileye tienen la certeza de que el
problema ya se evitaría con las versiones más recientes que se han introducido
en su sistema de cámaras.
Lo que dicen desde
McAfee no es ninguna tontería. El experimento ha puesto de manifiesto lo que
podría ocurrir si personas malintencionadas y con ciertos conocimientos
técnicos deciden actuar para provocar uno o varios accidentes de tráfico y la facilidad con la que es
posible engañar a la IA -aunque sea del pasado- de algunos coches con
automatismos.
Muy Interesante
06 de Marzo del 2020
No hay comentarios:
Publicar un comentario