Bloomberg — Estados Unidos abrió una investigación federal para determinar si el sistema de automatización parcial de Tesla Inc (TSLA), conocido como conducción autónoma total, es defectuoso después de cuatro accidentes, uno de los cuales se saldó con una víctima mortal.
La Administración Nacional de Seguridad del Tráfico en Carretera (NHTSA, por sus siglas en inglés) dijo este viernes que evaluará si el sistema de Tesla, también conocido como FSD, tiene la capacidad de detectar y responder adecuadamente a la niebla y a otras condiciones de visibilidad reducida. La agencia dijo que se han registrado cuatro choques en tales escenarios en los que se activó el FSD.
Lea también: Tesla usó humanos para manejar sus robots Optimus durante el evento de lanzamiento
En uno de los accidentes, un vehículo deportivo utilitario Tesla Model Y atropelló mortalmente a un peatón. Otra colisión en la que se vio implicado un sedán Model 3 se saldó con un herido leve, según la NHTSA. Los representantes de Tesla no respondieron a una solicitud de comentarios por correo electrónico.
La investigación puede suponer un revés para los esfuerzos del CEO, Elon Musk, por situar a Tesla como líder de la conducción automatizada. Aunque en la actualidad los usuarios de FSD deben supervisar constantemente el sistema, Musk afirmó durante un evento de producto celebrado la semana pasada que los conductores de Texas y California ya no necesitarán prestar atención en algún momento del próximo año.
Las acciones de Tesla cayeron un 0,8% poco después del inicio de la negociación regular. Las acciones se vendieron después de que la presentación de Musk de prototipos de vehículos autónomos la semana pasada careciera de detalles sobre cómo la empresa hará realidad sus ambiciones de autoconducción.
Aunque la investigación de defectos afecta a unos 2,4 millones de vehículos Tesla, solo una parte de los clientes de la empresa pagan por el FSD.
Vea además: Todo el imperio de Musk está en la mira de la Unión Europea por posibles multas a X
La investigación se suma a otra abierta en abril por la NHTSA sobre si Tesla había hecho lo suficiente para evitar que los conductores hicieran un uso indebido de otro conjunto de funciones de asistencia que la empresa comercializa como Autopilot. La agencia está investigando si una actualización de software que Tesla desplegó a finales del año pasado garantiza que los conductores permanezcan activos mientras utilizan el sistema.
La NHTSA ha afirmado que existe “una brecha de seguridad crítica” entre lo que los conductores creen que puede hacer Autopilot y sus capacidades reales. Según la agencia, esa brecha ha dado lugar a un mal uso previsible del sistema y a accidentes evitables.
Lea también: La aportación de US$75 millones de Musk confirma su rol como principal donante de Trump
En abril, la NHTSA dijo que había encontrado 211 incidentes en los que Teslas se estrellaron con Autopilot, a pesar de que había tiempo suficiente para que los conductores evitaran o mitigaran las colisiones. En 111 casos, los conductores se salieron de la calzada tras desconectar el sistema inadvertidamente.
Musk ha dicho que la capacidad de Tesla para desarrollar tecnología de vehículos autónomos determinará en última instancia si la empresa vale mucho dinero o “básicamente cero”. El fabricante de automóviles cobra US$8.000 por el FSD en EE.UU. y ha dicho que buscará la aprobación regulatoria para implantarlo en Europa y China a principios del año que viene.
Lea más en Bloomberg.com