Tecnología

Tesla lanza una actualización de conducción autónoma completa después de que un frenado repentino asusta a los conductores

Fotografía de un coche deportivo rojo de alta gama.
Agrandar / La vista frontal del nuevo modelo 3 de Tesla en exhibición se ve el viernes 26 de enero de 2018 en la tienda Tesla en Washington, DC.

El software de conducción autónoma completa de Tesla estuvo a la altura de su etiqueta «beta» este fin de semana.

El sábado por la mañana, el CEO de Tesla, Elon Musk Anunciado un retraso para la actualización 10.3 después de que los evaluadores internos de control de calidad descubrieron que la nueva versión funcionaba peor en los giros a la izquierda en los semáforos que las versiones anteriores. Luego, el domingo por la tarde, Musk dijo que Tesla estaría «retrocediendo a 10.2 temporalmente» después de informes de frenadas repentinas, advertencias falsas y otros problemas.

Varios propietarios informaron que sus vehículos frenaron repentinamente cuando el software informó por error de una colisión inminente. Conocido como frenado automático de emergencia (o AEB), ni la función ni sus errores se limitan a Tesla – Mazda recordó algunos de sus coches en 2019 por problemas similares.

Cuando funcionan correctamente, la advertencia de colisión frontal y el frenado automático de emergencia funcionan en conjunto para evitar que un vehículo choque contra objetos en su camino. Una combinación de sensores y software alerta primero a los conductores sobre una colisión inminente y, si no se toman medidas, se aplica con fuerza. los frenos.

Los automóviles que experimentan alertas fantasmas que conducen a eventos de frenado de emergencia corren el riesgo de ser chocados por detrás si se detienen rápidamente en un tráfico denso o si viajan a altas velocidades. «Tener AEB activado en medio de la carretera fue aterrador», dijo un conductor de Tesla informó en Reddit.

Si bien los eventos de frenado de emergencia automático falso y las advertencias de colisión frontal falsas parecen ser los problemas más generalizados, otros conductores informaron advertencias falsas de salida de carril y un inhabilitando de advertencia de colisión frontal y frenado automático de emergencia sin advertencia.

Tesla ha ofrecido la conducción autónoma total como una opción costosa en sus vehículos, y las personas pagan hasta $ 10,000 por la posibilidad de obtener acceso al software cuando se lance. Pero han pasado años desde que se introdujo la opción por primera vez, y solo recientemente un grupo selecto de propietarios ha podido acceder a una versión beta de la función.

Tesla distribuyó la conducción autónoma total a una ola inicial de 2000 conductores, y ha estado ampliando el acceso a grupos limitados en función del «puntaje de seguridad» de un conductor, que la compañía calcula a partir de los datos de telemetría recopilados por sus vehículos. La primera expansión dio acceso a conductores con puntajes de 100 sobre 100, mientras que el siguiente grupo tuvo puntajes de 99.

Hoy, el fabricante de automóviles lanzó otra actualización, 10.3.1, y comenzó a distribuirlo en vehículos elegibles.

Un usuario de Reddit sugirió que el error más extendido podría estar relacionado con un conflicto entre el sistema de frenado automático de emergencia y el Modo Centinela de Tesla, un sistema de seguridad que monitorea el vehículo cuando está estacionado. Si es cierto, sería un desarrollo preocupante, lo que sugiere que un error en una característica no crítica causó un problema con un sistema de seguridad. Por lo general, los fabricantes de automóviles mantienen separados los sistemas de seguridad de los vehículos porque el costo de desarrollo de esas características es significativamente mayor.

Letra NTSB

Tesla también está bajo presión para abordar dos recomendaciones de seguridad hechas por la Junta Nacional de Seguridad en el Transporte hace más de cuatro años. La agencia los hizo después de investigar el accidente que mató a Joshua Brown, cuyo Model S chocó contra un semirremolque en su camino. La agencia determinó que Brown condujo en piloto automático durante períodos prolongados sin sus manos en el volante y que estaba usando la función en las carreteras. para lo cual no fue diseñado. La NTSB le ha pedido a Tesla que limite cuándo y dónde se puede usar el piloto automático y que implemente un monitoreo más estricto para la atención del conductor.

“Nuestras investigaciones de accidentes que involucran a los vehículos de su empresa han demostrado claramente que el potencial de uso indebido requiere un cambio en el diseño del sistema para garantizar la seguridad”, dijo la presidenta de la NTSB, Jennifer Homendy. escribió. «Si realmente quiere poner la seguridad al frente y al centro en el diseño de los vehículos Tesla, lo invito a tomar medidas sobre las recomendaciones de seguridad que le dimos hace cuatro años».

El piloto automático es un sistema avanzado de asistencia al conductor de nivel 2, lo que significa que los conductores deben controlar el vehículo en todo momento. Actualmente, la mayoría de los fabricantes de automóviles, incluido Tesla, prueban la participación del conductor comprobando periódicamente si se está aplicando torque al volante. Otros sistemas, como el SuperCruise de GM y el BlueCruise de Ford, utilizan el seguimiento ocular. Sin sistema, sin embargo, es infalible.

La carta de la NTSB no parece haber afectado el precio de las acciones de Tesla, que se disparó a un nivel récord y envió su capitalización de mercado a más de $ 1 billón por primera vez, tal vez con la noticia de que la compañía de alquiler de coches Hertz realizó un pedido de 100,000 Model 3.

Leave a Comment

You may also like