Tesla lleva la locura a otro nivel: Estrellar coches para demostrar un punto

El enfoque radical de Tesla en la conducción autónoma

Tesla sigue apostando por un futuro donde los autos se conduzcan completamente solos. Para Elon Musk, competir con fabricantes como BYD en la cantidad de autos eléctricos vendidos no es la meta principal. El verdadero objetivo de Tesla está en lograr una conducción 100% autónoma, sin intervención humana.

Pero este camino no está libre de polémicas. Mientras la mayoría de fabricantes incorpora sensores avanzados como radares y LIDAR (tecnología de detección por láser), Tesla insiste en prescindir de ellos. Según la compañía, las cámaras y la inteligencia artificial bastan para ofrecer una experiencia segura.

Este enfoque ha sido ampliamente cuestionado. ¿Qué tan confiable es depender únicamente de cámaras? ¿Y qué pasa cuando estas fallan?


El experimento de Mark Rober: ¿puede un Tesla ser engañado?

El youtuber y exingeniero de la NASA Mark Rober llevó esta discusión al siguiente nivel con un experimento insólito: pintar una carretera falsa sobre una pared de poliestireno (al estilo de los Looney Tunes) para ver si un Tesla en piloto automático sería engañado.

¿El resultado?

El Tesla no detectó que se trataba de una trampa visual y se estrelló directamente contra la pared falsa, sin reducir la velocidad.

Además, se colocaron maniquíes simulando peatones, niebla artificial y condiciones de lluvia, para ver cómo reaccionaba el sistema. En todos los escenarios, el coche mostró graves deficiencias en la percepción del entorno.


¿Por qué Tesla evita usar LIDAR y radares?

Elon Musk ha sido claro: quiere que los vehículos se comporten como humanos, es decir, que vean solo con "ojos" (cámaras) y procesen la información con un "cerebro" (IA). Pero muchos expertos señalan que esto no es suficiente para situaciones donde la visión se ve comprometida, como en lluvia, niebla o baja iluminación.

El LIDAR, por ejemplo, permite mapear en 3D el entorno con precisión milimétrica, incluso de noche. La mayoría de fabricantes lo consideran indispensable. Pero Tesla lo considera innecesario, costoso y redundante.


¿Un software que se desconecta justo antes del impacto?

Otro punto inquietante del experimento y de varias investigaciones previas es que el sistema de asistencia al conductor de Tesla (Autopilot o FSD) se desactiva automáticamente una fracción de segundo antes de una colisión.

Esto ha llevado a pensar que la empresa intenta evadir responsabilidades legales, alegando que en el momento del impacto el coche ya no estaba bajo el control del software. Si esto es así, ¿quién tiene la culpa? ¿El conductor o el sistema?

Incluso se ha especulado sobre una posible colaboración con el gobierno de Trump para minimizar el alcance mediático de los accidentes, aunque no hay pruebas oficiales.


¿Hacia dónde va el futuro de la conducción autónoma?

Las dudas siguen en el aire. Algunos países incluso han prohibido el uso del piloto automático de Tesla, debido a los riesgos implicados. Y aunque el sistema ha mejorado con el tiempo, los accidentes siguen ocurriendo.

Muchos expertos coinciden: el enfoque basado solo en cámaras no es suficiente para garantizar la seguridad. Y aunque Musk lo defiende como una aproximación más “humana”, la realidad demuestra que la visión humana también tiene límites.


¿Es solo un experimento viral o una alerta real?

Aunque no es común encontrarse con una pared falsa como en los dibujos animados, el experimento de Mark Rober deja una pregunta clave:
¿Qué más podría pasar desapercibido por los autos autónomos si eliminamos sensores clave?

En un futuro donde Tesla planea eliminar volantes y pedales, es más urgente que nunca que los vehículos autónomos sean más seguros y precisos que los humanos. Por ahora, la realidad nos dice que todavía queda mucho por mejorar.