El Tesla Model S que provocó un choque en cadena en San Francisco estaba en modo de conducción autónoma total, según datos publicados por el gobierno federal.


Las imágenes de vigilancia vial muestran un automóvil Tesla Model S cambiando de carril y luego frenando con fuerza en el carril más a la izquierda del Puente de la Bahía de San Francisco, lo que resultó en un choque de ocho automóviles en noviembre. Si el conductor le dijo a la policía que usó la nueva función de “conducción autónoma total” (FSD) de Tesla, esa información ahora ha sido verificada y confirmada por los datos publicados por el gobierno federal el martes.

Los fanáticos de Tesla afirman que los sistemas de asistencia al conductor Autopilot y Full Self-Driving son mejores que los conductores humanos. Aunque todavía está en versión beta, Full Self-Driving puede manejar una variedad de situaciones de tráfico, a veces comportándose normalmente durante varias horas. Esto lleva a la gente a creer que el sistema es lo suficientemente bueno como para usarlo como un sistema de manejo diario. Pronto se vuelven descuidados, pierden la concentración y, en el peor momento posible, reciben un claro recordatorio de que Full Self-Driving todavía está en versión beta por una razón: todavía está en desarrollo.

Cuando esto sucede, puede ser trágico porque, a menudo, el conductor humano no tiene suficiente tiempo para reaccionar ante una situación peligrosa que el software FSD Beta no puede manejar.

Este puede haber sido el caso en el choque de noviembre en la I-80 al este del Puente de la Bahía de San Francisco. El conductor le dijo a la policía que usó la nueva función de “Conducción autónoma total” (FSD) de Tesla, según el informe, antes de que se activara la señal de giro a la izquierda del Tesla, activó los frenos y no giró a la izquierda del automóvil, sino que redujo la velocidad hasta detenerse. directamente en el camino [du deuxime vhicule] . El Tesla ingresó al carril rápido antes de frenar rápidamente. La desaceleración inesperada provocó un choque de ocho autos.

El niño herido en el accidente era un niño de 2 años que sufrió un rasguño en la parte posterior izquierda de la cabeza y un hematoma, según un informe detallado del incidente. En una foto del accidente, una carriola está estacionada frente al automóvil donde resultó herido el niño.

En los últimos meses, han surgido muchos informes en los que los conductores de Tesla se han quejado de un frenado fantasma repentino cuando el vehículo va a altas velocidades, lo que casi provoca accidentes en muchos casos. Más de 100 de esas quejas se presentaron ante la NHTSA en tres meses, según el Washington Post.

El diario explica que:

Cotizar Enviado por El Correo de Washington

Los Tesla frenan inesperadamente en respuesta a peligros imaginarios, como el tráfico que se aproxima en carreteras de dos carriles, lo que llevó a sus asustados propietarios a presentar una ola de quejas ante la Administración Nacional de Seguridad del Tráfico en las Carreteras durante los últimos tres meses. según una revisión del Washington Post de los datos federales de seguridad de los vehículos.

El fenómeno, conocido como frenado fantasma, es un problema constante para los vehículos Tesla.

El fabricante de automóviles se vio obligado a retirar una versión de su software Full Self-Driving en octubre debido a falsos positivos de su sistema automático de frenado de emergencia que, según dice, fueron activados por una actualización de software. Las quejas se dispararon después del retiro y siguen siendo altas, lo que indica una preocupación continua entre los propietarios.

Los informes de propietarios de frenos fantasma a la NHTSA aumentaron a 107 quejas en los últimos tres meses, frente a solo 34 en los 22 meses anteriores.

Si bien los conductores tienden a culpar a la FSD por sus errores cuando ocurre un accidente, esta vez el conductor tenía razón, según confirmaron los datos publicados por el gobierno federal el martes. Según un informe de investigación citado por CNN, el controvertido software de asistencia al conductor se activó unos 30 segundos antes del accidente. Los datos también muestran que el automóvil desacelera repentinamente a 11 km/h, un movimiento peligroso en tráfico rápido.

No está claro qué causó el frenado fantasma, que Tesla aún tiene que descubrir y solucionar. Tesla ha eliminado todos los sensores de sus automóviles, excepto las cámaras de video, que pueden ser la causa principal. Después de todo, las personas experimentan ilusiones ópticas, aunque rara vez. Ciertas condiciones, como una sombra que se mueve rápidamente en la cámara, pueden hacer que el sistema crea que hay un objeto frente al automóvil e inicie el frenado.

La NHTSA ya está investigando cientos de quejas de los conductores de Tesla, algunas de las cuales describen casi accidentes y preocupaciones por su seguridad. Sin embargo, la agencia aún no ha tomado medidas contra Tesla y la investigación se ha prolongado. De cualquier manera, los analistas esperan que los hallazgos recientes del choque de San Francisco impulsen a la NHTSA a buscar una solución.

El término conducción autónoma total ha sido criticado por otros fabricantes de automóviles.

El término “conducción autónoma total” ha sido criticado por otros fabricantes y grupos de la industria por considerarlo engañoso e incluso peligroso. El año pasado, la empresa de tecnología de conducción autónoma Waymo, propiedad de la empresa matriz Google, anunció que ya no usaría el término.

Desafortunadamente, vemos que algunos fabricantes de automóviles están utilizando el término ‘autoconducción’ [ndlr. auto-conduite] inexacto, dando a los consumidores y al público en general una impresión falsa de las capacidades de la tecnología de asistencia al conductor (no completamente autónoma), escribió Waymo en una publicación de blog. Esta impresión falsa podría estar causando que alguien corra un riesgo no intencional (como fuera del volante) que pueden ser peligrosos no solo para su propia seguridad, sino también para quienes los rodean.

Aunque Waymo no mencionó ningún nombre, la declaración parece claramente motivada por la controvertida decisión de Musk de usar el término Full Self Driving.

De manera similar, el grupo de presión líder en vehículos autónomos pasó a llamarse recientemente Coalición de conducción autónoma para la asociación de la industria de vehículos autónomos en calles más seguras. El cambio, dijo el grupo de la industria, refleja su compromiso con la “precisión y consistencia en la forma en que la industria, los legisladores, los periodistas y el público hablan sobre la tecnología de conducción autónoma”.

El secretario de Transporte, Pete Buttigieg, también criticó las tecnologías emergentes de asistencia al conductor, que dijo que no han reemplazado la necesidad de un conductor humano alerta: lo he dicho una y otra vez; “Todo lo que puede comprar en el mercado hoy en día es tecnología de asistencia al conductor, no tecnología de reemplazo del conductor”, dijo Buttigieg. No me importa cómo se llame. Tenemos que asegurarnos de tener esto claro, incluso si las empresas no lo tienen.

Si bien el lenguaje puede evolucionar, todavía no existen restricciones federales sobre las pruebas de vehículos autónomos en vías públicas, aunque los estados han impuesto límites en algunos casos. Tesla no ha anunciado ningún cambio en el programa o su marca, pero el accidente es uno de esos pocos meses. Días antes del accidente del 18 de noviembre en Bay Bridge en Ohio, un Tesla Model 3 se estrelló contra un SUV de la Patrulla de Caminos del Estado de Ohio detenido con las luces de emergencia encendidas. También se cree que el Tesla está en modo de conducción autónoma total y también está siendo investigado por la NHTSA.

Fuente: CNN

¿Y usted?

¿Cómo lo lees? ¿Implicaciones potenciales para Tesla?

Leave a Reply

Your email address will not be published. Required fields are marked *