Cómo la compresión de video impulsada por IA podría convertir a Elon Musk en un hombre honesto



“LIDAR es una tontería. Cualquiera que confíe en LIDAR está condenado. ¡Condenado! Sensores costosos que son innecesarios. Es como tener un montón de costosos apéndices. Como, un apéndice es malo, bueno, ahora tienes un montón de ellos, es ridículo, ya verás «. Elon Musk, abril de 2019.

El enfoque de Tesla hacia la tecnología de vehículos sin conductor ha sido controvertido en el mejor de los casos. Una serie de cada vez más malas elecciones de marketing y marca han dificultado determinar exactamente cuál es el punto de referencia real de la empresa para la conducción autónoma.

Por un lado, está claro que Tesla tiene una de las funciones de asistencia al conductor más avanzadas del mundo. Los Teslas se encuentran entre los vehículos más seguros que puede conducir un ser humano. Sin embargo, por otro lado, es probable que la compañía esté a años de desarrollar un producto que no venga con una advertencia para que los conductores mantengan las manos en el volante en todo momento y estén preparados para tomar el control en una fracción de segundo.

La competencia, sin embargo, ya ha superado esa etapa.

Es un poco injusto comparar Waymo y Tesla, aunque, debo señalar, el CEO de Tesla, Elon Musk, invita a estas cosas cuando controla a su competencia bajo la apariencia de un discurso, porque las compañías están tratando de lograr dos cosas completamente diferentes.

Waymo está preparando el terreno para una flota de robotaxis que probablemente no tendrá volante, asiento del conductor ni cabina de ningún tipo. Tesla está tratando de crear la mejor experiencia para los propietarios de automóviles. Si bien puede parecer que el objetivo final de cada uno es la autonomía L4 / L5, la forma en que lo abordan no podría ser más diferente.

En el mundo de la IA, L4 y L5 se refieren a niveles de autonomía. Es un poco complejo, pero la versión embarrada es que un automóvil que puede conducirse solo sin asistencia externa, pero que aún puede ser conducido u operado por humanos, muestra un nivel de autonomía 4, y cuando eliminas la intervención humana por completo, alcanzas el nivel 5.

Waymo confía en cámaras y paquetes de sensores basados ​​en LIDAR por las capacidades de conducción autónoma de sus robotaxis donde, como se puede ver en la cita de Musk anterior, Tesla repudia la utilidad de LIDAR en tales esfuerzos. El atuendo dirigido por Musk pone más énfasis en visión por computador como el punto focal de su sistema llamado «Full Self Driving».

En la ejecución, esto significa que, como cualquier otro sistema basado en video, Teslas probablemente tenga que lidiar con la latencia inherente involucrada en el uso de códecs de video de última generación. No importa cuán avanzados y poderosos sean sus algoritmos de aprendizaje automático si están esperando que se resuelvan las señales de video.

Recuerda cuando un hombre murió en un Tesla Model S que no pudo distinguir Un camión blanco en una intersección de carreteras desde las nubes en el cielo.? Es fácil imaginar que tal error no habría ocurrido si la IA tuviera un video en tiempo real de mayor resolución que resaltara adecuadamente la información importante en la escena que se desarrolló en los últimos segundos antes del impacto.

No pensamos en eso, pero los códecs de video son una tecnología fundamental en la actualidad. La versión de Cliff’s Notes de lo que hacen es la siguiente: los videos son demasiado grandes para transmitirlos en su tamaño nativo, por lo que deben comprimirse para enviarlos y descomprimirse para verlos. Los códecs son los que manejan la compresión y descompresión.

Cuando piensa en comprimir y descomprimir videos para transmisión en vivo, ya sea en YouTube, juegos de Twitch o en un procesador de inteligencia artificial dentro de un automóvil, debe tener en cuenta toda la potencia de procesamiento que requiere.

Los códecs modernos son excelentes para lo que hacen. Probablemente hayas oído hablar de cosas como MPEG-4 y HVEC-H.265 o incluso DivX, bueno, esos son códecs. Te permiten ver videos que, de lo contrario, tendrían que ser del tamaño de una miniatura o enviarse en pequeñas ráfagas (¿recuerdas cuando todo siempre se almacenaba en búfer?). Pero todavía no son lo suficientemente buenos para vehículos autónomos.

Devin Coldewey de Tech Crunch publicó ayer una pieza en profundidad en el inicio de la IA WaveOne, una empresa que parece estar desarrollando un sistema de compresión de video impulsado por inteligencia artificial que podría revolucionar la industria del video en su conjunto.

Y sí, el artículo aborda el hecho de que cada cinco o seis meses aparece algún equipo que afirma haber creado el único códec verdadero para gobernarlos a todos solo para descubrir que los «estándares» no se ajustan simplemente a su trabajo porque usted tengo una buena idea.

Resulta que la ejecución de algunas de estas soluciones de software requiere hardware específico, un obstáculo que impide que la mayoría de los códecs «nuevos y mejorados» lleguen al mercado. El trabajo de WaveOne podría cambiar eso. Según el artículo de Coldewey:

Solo un problema: cuando obtiene un códec nuevo, necesita hardware nuevo.

Pero considere esto: muchos teléfonos nuevos se envían con un chip diseñado para ejecutar modelos de aprendizaje automático, que al igual que los códecs se pueden acelerar, pero a diferencia de ellos, el hardware no está hecho a la medida del modelo. Entonces, ¿por qué no usamos este chip optimizado para ML para video? Bueno, eso es exactamente lo que WaveOne pretende hacer.

WaveOne ha diseñado sus algoritmos para que se ejecuten en chips de IA. Eso significa que funcionará de forma nativa en iPhones, dispositivos Samsung y la mayoría de los teléfonos insignia en 2021 y más allá. Y, por supuesto, trabajarían con cualquier sistema de cámaras que empresas como Tesla estén utilizando en sus vehículos autónomos.

La parte clave aquí es, como escribe Coldewey, que el sistema de WaveOne pretende reducir a la mitad los tiempos de procesamiento al tiempo que aumenta la calidad de la imagen. Algo que podría ser enorme para los vehículos autónomos. Coldewey continúa:

Un automóvil autónomo, que envía video entre componentes o a un servidor central, podría ahorrar tiempo y mejorar la calidad del video al enfocarse en lo que el sistema autónomo designa como importante (vehículos, peatones, animales) y no perder tiempo y bits en un cielo sin rasgos distintivos. árboles en la distancia, y así sucesivamente.

Esto parece bastante cercano a un momento eureka. La tecnología de WaveOne no requiere que los consumidores hagan nada más que seguir comprando dispositivos de nueva tecnología como siempre lo han hecho. Y las empresas no tendrán que invertir en un ecosistema de hardware para obtener los beneficios de los nuevos y mejores servicios de compresión de video. Eso significa que si todo sale como este trabajo de investigación parece indicar que lo hará, el futuro de WaveOne es brillante.

Y, potencialmente, también lo es la industria de los automóviles autónomos. Si un avance como este puede evitar que los autos de Tesla piensen que los camiones son nubes, podría representar un gran salto para la tecnología de vehículos autónomos basada en visión por computadora.

Y ni un momento demasiado pronto, porque Musk tiene menos de un mes para cumplir con su garantía de que Tesla estaría operando. 1.000.000 de robotaxis para finales de 2020. Hasta ahora, la empresa ha logrado producir exactamente cero.

Publicado el 2 de diciembre de 2020-19: 43 UTC





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad