Light Detection and Ranging.
O, lo que es lo mismo, Detección y Medición de la Luz. Estas son las palabras que se esconden detrás de LiDAR. Esta tecnología utiliza pulsos de luz para mapear el entorno y descubrir todos y cada uno de los rincones de una estancia o un espacio abierto casi en tiempo real, así como para recrear entornos 3D con enorme precisión.
Para entender bien cómo funciona un radar LiDAR, recomiendo ver el vídeo de Mark Rober en el que cuenta las diferencias entre un coche equipado con este sistema y su Tesla, que utiliza exclusivamente cámaras para detectar los obstáculos que puede encontrar por su camino.
Más allá de la polémica surgida en relación a las pruebas que hace Rober, el vídeo explica bien por qué el LiDAR es un sistema tan completo. De forma sencilla, el sistema aprovecha la velocidad de la luz para emitir pulsos infrarrojos. Éstos rebotan en el objeto en cuestión y el sistema calcula a qué distancia está ese objeto utilizando el tiempo que el pulso de luz ha tardado en ir y volver.
Como los pulsos de luz tienen un tamaño muy pequeño y, como decíamos, aprovecha esa velocidad altísima de transmisión de la luz, puede mapear con mucha precisión los objetos casi en tiempo real.
En los últimos días, tras el vídeo de Mark Rober, la polémica de si es mejor utilizar un sistema LiDAR o uno que utilice exclusivamente las cámaras y las recreaciones mediante software es mejor o peor para garantizar el mejor comportamiento en lo que a conducción autónoma se refiere. Una polémica que nos ha dejado a gente probando a lanzar su Tesla contra un muro con una carretera pintada al más puro estilo Correcaminos.
Y es que Tesla hace tiempo que dejó claro que lo apostaría todo al uso de cámaras para gestionar sus sistemas de ayuda a la conducción o, en un futuro, de conducción completamente autónoma con los robotaxis que quiere poner en las calles.
En su momento, los robots aspiradores del hogar también vivieron este momento de indecisión. Y por el camino, iRobot que era la líder destacada del mercado ha terminado por dar pérdidas millonarias y ha visto cómo los fabricantes chinos le han comido gran parte del mercado.
El secreto de estos últimos: utilizan LiDAR en lugar de confiarlo todo a las cámaras.
Qué puede aprender Tesla de un aspirador
"Tenemos dudas sustanciales", con estas palabras los dueños de iRobot respondían a la pregunta de si podrían seguir adelante con sus operaciones. Explicaba mi compañero Javier Pastor hace unos meses que cuando Amazon se planteó la compra de iRobot en 2022 (que cayó por términos regulatorios) la compañía tenía un valor de 1.200 millones de dólares.
En el tercer trimestre de 2024, el cálculo era de unos 200 millones de dólares. Poco después, la situación no ha mejorado mucho. En 2024, iRobot perdió más de 145 millones de dólares. Con todo, habían reducido sus pérdidas en un 52%.
La compañía se enfrentó a una tormenta perfecta. Tras pasar lo peor de la pandemia, el gasto en robots del hogar y otro tipo de productos (como los ordenadores) se desplomaron. Eso coincidió con el lanzamiento de nuevos productos chinos que eran más rápidos y eficaces que los de iRobot: utilizaban el sensor LiDAR.
Este sistema es ideal para mejorar las capacidades de un robot aspirador. Detecta mejor los obstáculos, mapea con mayor precisión la casa y eso se traduce en un trabajo más rápido y efectivo. El resultado es especialmente bueno si se combina con las cámaras y los sistemas de inteligencia artificial para descubrir los obstáculos más pequeños que pueden pasar inadvertidos o crear confusiones.
En los últimos años, esa ha sido la tendencia del mercado en la limpieza del hogar. La combinación de este sistema con un precio más atractivo ha disparado las ventas de los robots aspiradores chinos, en detrimento de un iRobot que llegó a acumular más del 60% de cuota de mercado.
La comparación con Tesla y el mercado del coche chino eléctrico es evidente. Éstos últimos están utilizando los sensores LiDAR en sus coches y ofrecen un producto igual o mejor que los europeos y los de Elon Musk por una fracción de su precio. El Xiaomi SU7 y su amplia acogida está siendo buena muestra de ello.
Tesla hace tiempo que defiende que los LiDAR no son necesarios para mejorar los sistemas de conducción autónoma pero los estudios dicen que, como en el caso de los robots aspiradores, el mejor desempeño lo firman cuando se combinan ambas tecnologías, LiDAR y cámaras.
En el caso de Xiaomi, los vídeos mostrados de cómo funcionan sus sistema de conducción autónoma total son impresionantes, con un comportamiento muy humano y gestionando muy bien los espacios más pequeños. Esto es posible porque, entre otras cosas, un LiDAR es mejor a la hora de calcular las distancias y sufre menos cuando cae la luz. Tampoco corre el riesgo de que la cámara sea deslumbrada, al menos no intencionalmente, generando frenazos fantasma.
Hasta el momento, todo indica que Tesla no parece dispuesta a volver a nada que no sea el "todo cámara" para ahorrar costes. De momento le ha funcionado pero tiene que demostrar que es tan efectivo como sistemas más avanzados. Y en juego también está el mayor mercado del coche eléctrico del mundo. En China, donde los extranjeros más están sufriendo frente al producto local, Tesla está pegándose un buen batacazo en 2025.
Foto | Tesla e iRobot
Ver 14 comentarios
14 comentarios
andresgomez9
Perfectamente Elon pudo usar las millonadas de los inversores y a un grupo de ingenieros en abaratar la tecnología LiDAR en vez de ponerse de terco que todo se podía hacer solo con cámaras
ayrton_senna
Tesla lo ha apostado todo al apoyo a los golpes de estados, la destrucción de la democracia y los derechos laborales.
El que compre un Tesla debería ir a la carcel o ser expulsado de cualquier país democrático.
awe139
Señores comerciales de tesla: no hay más ver los vídeos que hay en internet de accidentes de teslas, para ver que solo las cámaras no son la solución para la conducción autónoma. Lo ideal es no escatimar en sensores (cámaras, lidar, etc) y si se requiere más potencia informática para procesar las señales, pues se pone la que haga falta.
albertor1
Yo en el momento que Tesla decidió apostar lo todo a las cámaras para ahorrar el costes supe que era el principio de su fin y que otros que lograran el santo grial de cámaras+lidar bien implementadas le iban a comer la tostada! Por no hablar de exprimir un diseño aburrido hasta la saciedad que iba a llegar un punto que la gente aborreciera y ahí teneis Xiaomi con un coche precioso y sus sensores lidar... normal que tengan una larguísima lista de espera porque le da mil vueltas a Tesla. Por no hablar del despropósito de la cyber truck... Y si a eso Le añades el viraje a la extrema derecha de Elon... Veo a Tesla fuera del mercado en pocos años!
ema94
LiDAR no me parece la solucion difinitiva, creo que las camaras solo necesitan un pequeño complemento de algún otro sensor económico. Con el desarrollo de las AI actuales no parece ser un problema la fusión de sensores como aparentemente lo eran en un inicio.
hastalaboina
Radar lidar es una expresión bastante rebuznante. Con lo ilustrativo que es explicar el acrónimo y ligarlo a los más populares sonar y radar...
stranno
El LiDAR obviamente tiene más latencia que un sistema visual, ya sean cámaras normales o 3D ToF (infrarrojo). La ventaja es una mayor precisión, ya que se mapea punto a punto, en vez de frame a frame, como un sistema visual, y una distancia de escaneo mucho mayor.
Que usen uno u otro se reduce a recortar costes. Luego ya te darán las explicaciones que quieran.
Ni el LiDAR es infalible, ni el sistema visual es malo. El ejemplo está en los drones, que ya tenían detección de obstáculos años antes de que alguien imaginara que un coche podía conducir solo. Ha habido sistemas para todos los gustos, incluyendo LiDAR, 3D ToF o cámaras estereoscópicas. Y al final todo se reduce a lo mucho que esté currado el algoritmo que usen. DJI no ha conseguido superar la tecnología de mapeo 3D mediante cámaras (normales) que usaba Skydio, antes de dedicarse en exclusiva a los drones empresariales. Y ni siquiera han conseguido que el sistema LiDAR del Air 3S sea más preciso que el sistema 3D ToF del Flip o las cámaras normales del Mini 4 Pro.
Obviamente el gran problema de un sistema visual, ya sea cámaras convencionales o infrarrojas, son las condiciones de luz. Que en conducción viene siendo como interesante que sea preciso xD
pablorodriguez9
Me sorprende y me alegra ver comentarios no sesgados por el marketing, positivo o negativo.
Me uno en especial a que hacer trabajar los 2 sistemas resultaría más complejo que mejorar tesla visión, y en especial tengo más confianza en tesla visión que el Lidar y que por cierto, el Lidar también se puede engañar y si me apuran con que alguien tenga un mínimo de malisia fabricarán un dispositivo que trabaje en frecuencias similares de lidar emitiendo luces en el espectro correcto y voala !!.. accidente seguro y sin poder ver el motivo, al menos el tesla se basa en visión y habrán testigos.
parte_equid
un ego enooorme!
Lo que no puedo pensar no es buena idea
Si una aspiradora tiene un lidar y se vende muy bien, por que un coche no
pablorodriguez9
Buscar materiles que confunden al Lidar o el puntero lase que confundio al coche inteligente dotado de sofisticado sistema lidar
Con esto basta.
Tau-Z
VAMOS A DECIR OBVIEDADES
NO es lo mismo un aspirador doméstico que un coche.
Como tampoco es lo mismo un dron que un robot aspirador. Y un coche no es igual que los otros dos.
No solo por las diferencias obvias de tamaño y peso, sino por la velocidad y el entorno de trabajo.
Meter más sensores aunque a priori pueda parecer buena idea para la conducción autónoma pues resulta que NO LO ES.
Es lo que en términos anglosajones se podría denominar:
Heuristic TRAP + Desing Flaw + Silver Bullet Falacy + False Friend
Un LiDAR es un sensor que crea una malla de puntos más o menos densa a partir del impacto de un haz de láser disparado miles de veces por segundo, contra el entorno y los objetos que hay, lo que permite una medición de distancia muy precisa alrededor del emisor con respecto al punto de origen.
Eso tiene ventajas.
Pero también inconvenientes.
El Lidar es un sistema activo (emite fotones), y solo crea mallas de esos puntos que pueden ser de mayor o menor densidad. Cuando muchas sistemas activos (que emiten fotones), se concentran en una zona, pues … , hay un riesgo claro de saturación del espectro.
Además:
El problema es que el mundo por el que los seres humanos nos movemos y hemos ido creando es uno en que lo que impera son datos a partir de información visual captada en el espectro visible por dos receptores /sensores pasivos (captan fotones pero NO los emiten), que son las retinas de nuestros ojos.
Hemos creado las cámaras para que capten la información de la forma más parecida posible a como la captan nuestros ojos.
La FUSIÓN de SENSORES —> es decir el crear una única imagen única y coherente del entorno, a partir de los datos que aporten muchos sensores y más aún si esos sensores son muy diferentes entre sí en la forma en la que captan los datos y recrean el entorno, ES UN PROBLEMA ENOORME.
Para conseguir una Fusión de Sensores,:
1º - SIN Paradiojas/ conflictos,
[NOTA: conflictos / paradojas como los que puede generar los datos de un Set de Sensores compuesto por: Radar + LiDARS + Cámaras, etc, de una caja de Cartón que ha levantado el viento y que vuela en la carretera hacia el coche en el que vamos]
2º - más en TIEMPO REAL / Baja Latencia (como para responder de forma adecuada cuando viajas en un coche que pesa 1.600/2.200 Kgs a 60/120 Kms/h)
3º - más con la MAXIMA FIABILIDAD.
y RESOLVER ESO REQUIERE
—> una IA, con una potencia tan alta, y una latencia tan bajas, probablemente igual o mayor —> a la IA que ya hace falta para todo el resto y necesario para conducir de forma autónoma
[NOTA 2: ya que para conducir de forma autónoma hablamos de una IA que pueda Identificar, Categorizar, etc los Objetos del Entorno, su naturaleza, (si son fijos o móviles, si se mueven o no, si se mueven pues que trayectoria y velocidad que llevan con respecto al vehículo autónomo, si hay obstáculos y de qué tipo son), cálculos de trayectorias y posibles colisiones, y hacer toda esa inferencia, y además atender las señales y reglamentos viales, y etc, etc]
Si sumas la IA y la potencia de cálculo necesaria y las latencias para una Fusión de SENSORES efectiva, a todo el resto necesario para conducir pues …
BUENA SUERTE …
A eso sumar que los sensores como los Radares majos, y los LIDARs capaces, SON sensores CAROS, o MUY CAROS.
Y los LiDAR además tienen a menudo partes móviles, así que a ver que fiabilidad y durabilidad dan en entornos duros y a la intemperie , y ojo el mantenimiento a ver que se inventan para calibrarlos y recalibrarlos.
La aproximación de Tesla de reducir número de sensores en general y reducir los diferentes tipos de sensores en particular en mi opinión ES ACERTADA.
Requiere que Tesla tenga un Software a nivel de IA más capaz para poder trabajar casi solo a partir de los datos de cámaras, pero se evitan la mayor parte del INFIERNO que es pulir una IA para Fusión de Sensores, y calzarla en el flujo y que no se disparen las latencias.