Elon Musk hace que su Tesla Autopilot sea casi demasiado protector con los peatones

Tesla ha llevado su última actualización a 100,000 autos que han sido validados para el programa beta de conducción autónoma completa. Para acabar con toda la polémica sobre los peligros de aplastar a los peatones, Elon Musk indica que ha aumentado su protección.

Elon Musk se está apegando a los plazos que anunció para implementar una nueva versión de su sistema de conducción autónoma. Para los 100.000 conductores de Tesla que optaron por sumarse a esta beta del sistema de conducción autónoma (FSD, o Full Self-Driving), se acaba de lanzar la versión 10.69.2. enviado el 12 de septiembre de 2022 en su automóvil. Esta actualización de software incluye muchos cambios en el sistema, pero Elon Musk decidió centrarse en la seguridad de los peatones.

Como para pasar página a la campaña pública de desprestigio de su sistema autónomo, Elon Musk insistió en la excesiva protección de los peatones al anunciar el lanzamiento de esta nueva versión del software. Elon Musk no está haciendo nada si por casualidad vemos esto como un desaire a su principal detractor, Dan O’Dowd, y su Proyecto Dawn.

El sistema de Tesla es casi demasiado protector

A menudo, tan pronto como está disponible una nueva versión, los probadores beta salen a la carretera para probar los cambios realizados por la actualización. Si bien algunos desarrollos son beneficiosos, otros a veces parecen ser contraproducentes para los sistemas de conducción autónomos.

Proteger a las personas vulnerables en la vía (peatones, ciclistas, patinetes, etc.) es más que necesario. Sin embargo, las reacciones inesperadas del sistema no deberían provocar más accidentes entre los automovilistas. Axa indicó en un estudio que los conductores de vehículos eléctricos tendrán más colisiones que otros. Sin embargo, podemos señalar que este estudio no es demasiado serio y señalar que Axa no dudó en distorsionar una prueba de choque de Tesla.

se puede observar en el proximo video, dirigida por Kim Paquette. El Tesla es capaz de frenar repentinamente sin previo aviso, porque el sistema detecta a un peatón que podría querer cruzar, según el entrenamiento de su red neuronal. Otras veces, el vehículo espera mucho tiempo, de forma que el peatón queda fuera de su campo de acción para empezar a avanzar. Estas reacciones, que no son naturales para un conductor humano, pueden causar problemas de integración con otros vehículos.

El sistema de conducción autónoma total de Tesla está progresando de una manera bastante interesante, pero todavía estamos muy lejos de las promesas de Elon Musk, por ahora.

“Miles de millones de millas de entrenamiento en el mundo real harán que FSD sea sobrehumano”

Elon Musk sigue convencido de que la IA y, por lo tanto, su piloto automático, funcionarán mejor que los humanos en el futuro. Sin embargo, se mantiene realista sobre el hecho de que aún queda un largo camino para alcanzar esta meta, como él mismo dijo en un tuit el 12 de septiembre: ” La validación en el mundo real y miles de millones de millas de entrenamiento en el mundo real harán que FSD sea sobrehumano. »

Esta versión 10.69.2 del software de conducción autónoma de Tesla permite en cualquier caso a Elon Musk acabar con la polémica que acusa a Tesla de una mala detección de peatones, y más concretamente de niños. Este debería ser el caso al menos hasta la próxima actualización, que a su vez puede traer cambios a la anterior. Tesla nos ha acostumbrado a estos fenómenos: una beta de software que llega corrigiendo un bug, pero reactivando otros que han desaparecido. Los probadores beta nunca terminan con sus sorpresas.

Leave a Reply

Your email address will not be published.