DETROIT (AP) – El gobierno de Estados Unidos abrió una investigación formal sobre el sistema de conducción parcialmente automatizado del piloto automático de Tesla después de una serie de colisiones con vehículos de emergencia estacionados.
La investigación cubre 765.000 vehículos, casi todo lo que Tesla ha vendido en Estados Unidos desde el inicio del año modelo 2014. De los choques identificados por la Administración Nacional de Seguridad del Tráfico en las Carreteras como parte de la investigación, 17 personas resultaron heridas y una murió.
La NHTSA dice que ha identificado 11 choques desde 2018 en los que Teslas en piloto automático o control de crucero consciente del tráfico han golpeado vehículos en escenas donde los socorristas han usado luces intermitentes, bengalas, un tablero de flechas iluminado o conos de advertencia de peligros. La agencia anunció la acción el lunes en una publicación en su sitio web.
La investigación es otra señal de que la NHTSA bajo el presidente Joe Biden está adoptando una postura más dura sobre la seguridad de los vehículos automatizados que bajo administraciones anteriores. Anteriormente, la agencia se mostraba reacia a regular la nueva tecnología por temor a obstaculizar la adopción de los sistemas que podrían salvar vidas.
La investigación cubre toda la línea de modelos actual de Tesla, los Modelos Y, X, S y 3 de los años modelo 2014 a 2021.
La Junta Nacional de Seguridad en el Transporte, que también ha investigado algunos de los accidentes de Tesla que datan de 2016, recomendó que la NHTSA y Tesla limiten el uso del piloto automático a áreas donde puede operar de manera segura. La NTSB también recomendó que la NHTSA requiera que Tesla tenga un mejor sistema para asegurarse de que los conductores presten atención. NHTSA no ha tomado medidas sobre ninguna de las recomendaciones. La NTSB no tiene poderes de ejecución y solo puede hacer recomendaciones a otras agencias federales.
El año pasado, la NTSB culpó a Tesla, a los conductores y a la regulación laxa de la NHTSA por dos colisiones en las que Teslas se estrelló debajo de tractocamiones cruzados. La NTSB tomó la inusual medida de acusar a la NHTSA de contribuir al accidente por no asegurarse de que los fabricantes de automóviles pusieran medidas de seguridad para limitar el uso de los sistemas electrónicos de conducción.
La agencia tomó las determinaciones después de investigar un accidente de 2019 en Delray Beach, Florida, en el que murió el conductor de 50 años de un Tesla Model 3. El automóvil conducía en piloto automático cuando ni el conductor ni el sistema de piloto automático frenaron o intentaron evitar que un tractor con remolque se cruzara en su camino.
“Nos complace ver que la NHTSA finalmente reconoce nuestro llamado de larga data para investigar a Tesla por poner en marcha tecnología que previsiblemente será mal utilizada de una manera que conducirá a choques, lesiones y muertes”, dijo Jason Levine, director ejecutivo de la Center for Auto Safety, una organización sin fines de lucro, un grupo de defensa. “En todo caso, esta investigación debe ir mucho más allá de los choques que involucran a vehículos de primeros auxilios porque el peligro es para todos los conductores, pasajeros y peatones cuando el piloto automático está activado”.
Con frecuencia, los conductores de Tesla han utilizado indebidamente el piloto automático, que han sido sorprendidos conduciendo ebrios o incluso en el asiento trasero mientras un automóvil rodaba por una carretera de California.
Se dejó un mensaje la madrugada del lunes en busca de comentarios de Tesla, que ha disuelto su oficina de relaciones con los medios.
La NHTSA ha enviado equipos de investigación a 31 choques que involucran sistemas de asistencia al conductor parcialmente automatizados desde junio de 2016. Dichos sistemas pueden mantener un vehículo centrado en su carril ya una distancia segura de los vehículos que están frente a él. De esos choques, 25 involucraron al piloto automático Tesla en el que se reportaron 10 muertes, según los datos publicados por la agencia.
Tesla y otros fabricantes advierten que los conductores que utilizan los sistemas deben estar preparados para intervenir en todo momento. Además de cruzar semifinales, los Teslas que utilizan el piloto automático se han estrellado contra vehículos de emergencia detenidos y una barrera vial.
La investigación de la NHTSA está pendiente desde hace mucho tiempo, dijo Raj Rajkumar, profesor de ingeniería eléctrica e informática en la Universidad Carnegie Mellon que estudia vehículos automatizados.
La falla de Tesla para monitorear de manera efectiva a los conductores para asegurarse de que presten atención debería ser la máxima prioridad en la investigación, dijo Rajkumar. Los Teslas detectan la presión en el volante para asegurarse de que los conductores estén comprometidos, pero los conductores a menudo engañan al sistema.
“Es muy fácil evitar la presión de la dirección”, dijo Rajkumar. “Ha estado sucediendo desde 2014. Hemos estado discutiendo esto durante mucho tiempo”.
Los choques contra vehículos de emergencia citados por la NHTSA comenzaron el 22 de enero de 2018 en Culver City, California, cerca de Los Ángeles, cuando un Tesla que usaba piloto automático golpeó un camión de bomberos estacionado que estaba parcialmente en los carriles de circulación con las luces encendidas. Las tripulaciones estaban manejando otro choque en ese momento.
Desde entonces, la agencia dijo que hubo accidentes en Laguna Beach, California; Norwalk, Connecticut; Cloverdale, Indiana; West Bridgewater, Massachusetts; El condado de Cochise, Arizona; Charlotte, Carolina del Norte; El condado de Montgomery, Texas; Lansing, Michigan; y Miami, Florida.
“La investigación evaluará las tecnologías y métodos utilizados para monitorear, ayudar y hacer cumplir el compromiso del conductor con la tarea de conducción dinámica durante la operación del piloto automático”, dijo la NHTSA en sus documentos de investigación.
Además, la sonda cubrirá la detección de objetos y eventos por parte del sistema, así como dónde se le permite operar. La NHTSA dice que examinará las “circunstancias que contribuyeron” a los choques, así como choques similares.
Una investigación podría dar lugar a un retiro del mercado u otra acción de cumplimiento por parte de la NHTSA.
“La NHTSA recuerda al público que ningún vehículo de motor disponible comercialmente en la actualidad es capaz de conducirse por sí mismo”, dijo la agencia en un comunicado. “Todos los vehículos disponibles requieren que un conductor humano tenga el control en todo momento, y todas las leyes estatales responsabilizan a los conductores humanos por la operación de sus vehículos”.
La agencia dijo que tiene “herramientas de aplicación sólidas” para proteger al público e investigar posibles problemas de seguridad, y actuará cuando encuentre evidencia “de incumplimiento o un riesgo irrazonable para la seguridad”.
En junio, la NHTSA ordenó a todos los fabricantes de automóviles que informaran sobre cualquier accidente que involucrara vehículos totalmente autónomos o sistemas de asistencia al conductor parcialmente automatizados.
Las acciones de Tesla Inc., con sede en Palo Alto, California, cayeron un 3,5% en la campana de apertura el lunes.
Tesla utiliza un sistema basado en cámaras, mucha potencia informática y, a veces, un radar para detectar obstáculos, determinar cuáles son y luego decidir qué deben hacer los vehículos. Pero Rajkumar de Carnegie Mellon dijo que el radar de la compañía estaba plagado de señales “falsas positivas” y detendría los autos después de determinar que los pasos elevados eran obstáculos.
Ahora Tesla ha eliminado el radar en favor de las cámaras y miles de imágenes que utiliza la red neuronal de la computadora para determinar si hay objetos en el camino. El sistema, dijo, hace un muy buen trabajo en la mayoría de los objetos que se verían en el mundo real. Pero ha tenido problemas con los vehículos de emergencia estacionados y los camiones perpendiculares en su camino.
“Solo puede encontrar patrones en los que se ha entrenado ‘entre comillas’”, dijo Rajkumar. “Claramente, las entradas en las que se entrenó la red neuronal simplemente no contienen suficientes imágenes. Son tan buenos como las aportaciones y la formación. Casi por definición, el entrenamiento nunca será lo suficientemente bueno “.
Tesla también permite a los propietarios seleccionados probar lo que llama un sistema de “conducción autónoma total”. Rajkumar dijo que eso también debería investigarse.