Mar 23, 2026 Dejar un mensaje

El sistema Bionic LiDAR logra una resolución más allá de la-retina mediante el enfoque adaptativo

Bionic LiDAR system achieves beyond-retinal resolution through adaptive focusing

En un estudio reciente, investigadores de China han desarrollado un sistema LiDAR a escala de chip-que imita la foveación del ojo humano concentrando dinámicamente sensores de alta-resolución en regiones de interés (ROI) mientras mantiene una amplia conciencia en todo el campo de visión.

El estudio se publica en la revista.Comunicaciones de la naturaleza.

Los sistemas LiDAR potencian la visión artificial en automóviles, drones y robots autónomos- al disparar rayos láser para mapear escenas 3D con precisión milimétrica. El ojo concentra sus sensores más densos en la fóvea (punto de visión central nítido) y dirige la mirada hacia lo que es importante. Por el contrario, la mayoría de los LiDAR utilizan rayos o escaneos paralelos rígidos que extienden una resolución uniforme (a menudo gruesa) en todas partes. Impulsar los detalles significa agregar más canales de manera uniforme, lo que aumenta los costos, la potencia y la complejidad.

El diseño del equipo logra una resolución angular "más allá de la-retina" de 0,012 grados en ROI-dos veces más nítida que el límite aproximado del ojo de 0,017 grados. Esto significa que el sistema puede distinguir puntos separados por ángulos muy pequeños, como distinguir detalles finos en una señal de tráfico distante. Reasigna canales de detección paralelos según demanda, evitando el costoso escalamiento por fuerza bruta-.

Phys.org habló con los co-autores del estudio, Ruixuan Chen y Xingjun Wang, de la Escuela de Electrónica de la Universidad de Pekín.

"La motivación proviene de un desajuste práctico entre la percepción biológica y la mecánica", explicaron los investigadores. "El ojo humano logra una alta agudeza y eficiencia energética al reasignar la atención-manteniendo una amplia conciencia mientras concentra los recursos en lo que importa. Por el contrario, la resolución LiDAR a menudo se persigue con 'más canales en todas partes', lo que rápidamente se vuelve costoso y consume mucha energía".

 

 

El problema de la escala

Los sistemas de visión artificial se han expandido más allá de las cámaras tradicionales para incluir sensores LiDAR, que permiten una medición precisa de la distancia y una percepción ambiental en 3D. Sin embargo, a diferencia de las cámaras pasivas, LiDAR exige hardware de emisión y recepción para cada píxel, lo que limita la resolución alcanzable.

Los enfoques actuales para mejorar la resolución LiDAR enfrentan un cuello de botella crítico. La duplicación de canales ofrece ganancias de resolución lineal pero desencadena explosiones superlineales en complejidad, potencia y costo.

"En primer lugar, la resolución está estrechamente relacionada con el recuento de canales del hardware y la mecánica de escaneo. En segundo lugar, LiDAR es un sensor activo: cada píxel cuesta efectivamente tanto los recursos de transmisión como los de recepción", explicaron los investigadores. "Eso hace que el enfoque adaptativo sea fundamentalmente más difícil que el de las imágenes pasivas, porque hay que gestionar la potencia óptica, la sensibilidad del receptor y el ancho de banda de digitalización sin dejar de cumplir con las restricciones de seguridad-de los ojos".

Para LiDAR de onda continua modulada en frecuencia coherente-, este desafío es particularmente grave. Cada canal coherente requiere un control de frecuencia estable, hardware de recepción sofisticado y una calibración estricta. Esto hace que la duplicación masiva de canales sea mucho más difícil de justificar económicamente.

Una solución biomimética

La solución de los investigadores combina dos tecnologías clave. Estos incluyen un ágil láser de cavidad externa-(ECL) con un rango de sintonización de más de 100 nm y peines de frecuencia electro-ópticos reconfigurables construidos sobre plataformas de película delgada-de niobato de litio (TFLN).

El ECL proporciona señales de chirrido FMCW de alta-calidad para un alcance coherente y actúa como un mecanismo de dirección de longitud de onda-de haz controlado-. Al sintonizar la longitud de onda central, el sistema puede redirigir rápidamente su dirección de visión dentro de un amplio campo de visión.

Luego, el peine electro-genera múltiples portadoras FMCW paralelas a partir de la misma fuente láser chirriada. Fundamentalmente, el ajuste de las condiciones de transmisión por radiofrecuencia cambia el espaciado de los peines.

"Esto es lo que permite el 'zoom'.-Podemos aumentar la densidad de puntos en una región seleccionada (muestreo más fino) o relajarla (muestreo más grueso) sin cambiar la óptica ni agregar canales", agregaron los investigadores.

El sistema emplea lo que los investigadores llaman "micro-paralelismo". Esto significa utilizar una cantidad moderada de canales físicos para lograr el equivalente de muchas más líneas de escaneo mediante el reposicionamiento dinámico.

 

Validación experimental

El equipo demostró las capacidades del sistema en tres escenarios experimentales, logrando una resolución angular de 0,012 grados en regiones enfocadas-superando el límite nominal de la retina humana.

En imágenes de escenas estáticas, el sistema capturó un entorno de carretera simulado con resoluciones de 54 por 71 píxeles para escaneos de campo de visión completo--y 17 por 71 píxeles para escaneos enfocados localmente. Estos escaneos enfocados cuadriplicaron la densidad de detalles verticales, revelando obstáculos antes invisibles, con el 90% de los puntos con una precisión inferior a 1,3 cm.

Los investigadores también demostraron la fusión de cámaras LiDAR-, creando nubes de puntos coloreadas que combinan geometría 3D precisa con datos de apariencia RGB. Al comparar escaneos estándar versus enfocados, la alineación del histograma de color mejoró aproximadamente un 10 %, lo que indica una mejor correspondencia entre los puntos 3D y los píxeles de la imagen.

"Al fusionar LiDAR con una cámara, generamos nubes de puntos coloreadas y enriquecemos la representación de la escena, lo que mejora la interpretabilidad y respalda las tareas de percepción posteriores que dependen de la textura y las señales semánticas", explicaron los investigadores.

Quizás lo más impresionante fue que el equipo capturó 4D-en tiempo real-además de imágenes-un lanzamiento de baloncesto donde cada punto mostraba la posición, la velocidad de giro, la reflectividad de la superficie y el color simultáneamente. A 8 Hz en un amplio campo de visión, esto reveló patrones de movimiento invisibles para el LiDAR 3D estándar.

El trabajo experimental reveló importantes compensaciones-a nivel del sistema que informan las rutas de desarrollo futuras.

"La más clara es la tensión entre la resolución angular y el margen de medición por-canal", señalaron los investigadores. "En nuestra lectura coherente paralela, cada canal debe ocupar su propia banda eléctrica no-superpuesta. Cuando reducimos la tasa de repetición, podemos de hecho impulsar el muestreo angular más fino, pero el experimento muestra que esto también comprime el ancho de banda de lectura por-canal".

El equipo identificó varias direcciones prioritarias para hacer avanzar la tecnología hacia una implementación práctica. Estos incluyen una integración monolítica más profunda en plataformas TFLN, el desarrollo de fuentes de barrido de banda ultra-ancha para mejorar la resolución del rango y la implementación de políticas de atención de bucle cerrado-para la percepción basada en eventos-.

Los experimentos actuales que utilizan enlaces de fibra introducen una inestabilidad de polarización que limita las capacidades de clasificación de materiales.

"Sin embargo, prevemos que la integración monolítica resolverá fundamentalmente este cuello de botella", dijeron los investigadores. "Al pasar de rutas de fibra inestables a guías de ondas confinadas en-chips, podemos lograr una recuperación de polarización estable".

El sistema biónico LiDAR ofrece aplicaciones potenciales que abarcan vehículos autónomos, drones aéreos y marinos, robótica y sistemas de visión neuromórfica. Según los investigadores, más allá de LiDAR, los peines reconfigurables permiten un análisis espectral rápido para comunicaciones ópticas, tomografía de coherencia, detección de compresión y metrología de precisión.

Envíeconsulta

whatsapp

Teléfono de contacto

Correo electrónico

Consulta