Nueva idea de Musk: Optimus podría aprender a doblar ropa viendo videos
Tesla está actualizando el “material educativo” para su robot humanoide Optimus, dejando de depender de trajes de captura de movimiento y control remoto, y entrenándolo mediante la visualización de videos.
Tesla (TSLA.O) está adoptando un modelo probado para entrenar su robot humanoide. Según personas familiarizadas con el asunto, el fabricante de autos eléctricos informó a sus empleados a finales de junio que el proyecto Optimus se enfocará más en un enfoque de “visión pura”.
Anteriormente, Tesla utilizaba trajes de captura de movimiento y visores de realidad virtual para registrar los datos de operadores humanos y controlar el robot a distancia. Ahora, la compañía entrenará principalmente al robot filmando videos de trabajadores realizando tareas, como enseñarle a recoger objetos o doblar remeras.
Según las fuentes, la empresa afirmó que abandonar los trajes de captura de movimiento y el control remoto permitirá al equipo ampliar la escala de recolección de datos más rápidamente.
Este cambio marca un ajuste importante en la estrategia robótica de Tesla, alineando a Optimus con la creencia de larga data del CEO Elon Musk de que la inteligencia artificial puede dominar tareas complejas solo a través de cámaras. Tesla ha entrenado su software de conducción autónoma usando un método similar.
Este cambio se produce poco después de la renuncia de Milan Kovac, jefe del proyecto Optimus. Según las fuentes, el jefe de IA Ashok Elluswamy ha asumido el liderazgo del proyecto.
La captura de movimiento y el control remoto son prácticas estándar en la industria robótica. Por ejemplo, la empresa líder Boston Dynamics ha utilizado el control remoto para entrenar a su robot Atlas. Durante el entrenamiento, los trabajadores usan trajes de captura de movimiento para realizar diversas tareas, cuyos datos luego se introducen en el robot. Los trajes de captura de movimiento también pueden usarse para controlar el robot a distancia.
Aún no está claro si Tesla volverá a priorizar la captura de movimiento y el control remoto en el futuro, o si continuará desarrollando a partir de los datos de video sobre la base de la información recopilada previamente.
Robert Griffin, científico investigador principal del Instituto de Cognición Humana y de Máquinas, señaló que una gran cantidad de datos de control remoto permite que los robots aprendan interactuando físicamente con el entorno. Señaló que depender únicamente de datos de video dificulta que el robot traduzca con precisión las acciones del video al mundo real.
“Si solo usás datos de video, no hay interacción física directa”, dijo.
Doblar remeras y recoger cosas
Musk anunció por primera vez en 2021 que Tesla planeaba desarrollar un robot humanoide llamado Optimus. El multimillonario afirmó que el robot eventualmente podrá realizar tareas como trabajo en fábricas y cuidado de personas.
El año pasado, la empresa contrató “operadores de recolección de datos”. Estos puestos implicaban ejecutar y registrar tareas domésticas básicas. Según los anuncios de empleo, los operadores debían usar trajes de captura de movimiento y visores de realidad virtual durante largos períodos.
Hasta finales de junio, el proyecto aún incluía entrenar a Optimus mediante control remoto y trajes de captura de movimiento. Según las fuentes, los trabajadores pasaban mucho tiempo lidiando con problemas relacionados con la vestimenta y el propio robot, lo que limitaba la cantidad de datos que el equipo podía recopilar.
Desde el cambio en el método de entrenamiento, los trabajadores comenzaron a registrar sus movimientos usando un set de cinco cámaras fabricadas por Tesla. Según las fuentes, estas cámaras están montadas en cascos y mochilas pesadas que llevan los trabajadores, filmando en todas las direcciones para proporcionar datos precisos de posicionamiento del entorno al modelo de IA.
Christian Hubicki, director del laboratorio de robótica de la Facultad de Ingeniería Conjunta de Florida A&M y Florida State University, señaló que estas cámaras desde diferentes ángulos podrían permitir a Tesla captar detalles más sutiles, “como la posición de las articulaciones y los dedos”, y mejorar la localización del robot. Agregó que estos videos también podrían complementar los datos recopilados previamente mediante control remoto.
Durante el entrenamiento, los trabajadores reciben instrucciones específicas de tareas, especialmente en lo que respecta a los movimientos de las manos, para asegurar que las acciones se vean lo más humanas posible. Un empleado comentó que podrían pasar meses repitiendo la misma tarea simple.
Jonathan Aitken, experto en robótica de la Universidad de Sheffield, dijo que Tesla probablemente necesitará encontrar una forma de que Optimus aprenda diversas tareas a través de movimientos generalizables.
“A esta escala, deben tener un conjunto de movimientos universales, de lo contrario, entrenar todas las tareas llevaría muchísimo tiempo”, dijo Aitken.
Agregó que Tesla podría adoptar una estrategia similar a la de la empresa Physical Intelligence, que enseña a los robots habilidades transferibles y flexibles introduciendo grandes cantidades de datos de demostración, en lugar de que memoricen tareas individuales.
“Un desarrollo robótico muy al estilo Tesla”
Esta nueva estrategia es consistente con la forma en que Tesla entrena su software de conducción autónoma. Otras empresas de conducción autónoma utilizan sensores como lidar y radar de onda milimétrica para entrenar su software, mientras que Tesla depende principalmente de cámaras.
La empresa recopila datos de millones de autos Tesla equipados con 8 a 9 cámaras. Musk ha dicho que el lanzamiento del software de asistencia a la conducción de Tesla en China se logró tras entrenar el sistema de IA con videos públicos de calles asiáticas.
En la llamada de resultados de enero de este año, Musk admitió que “los requisitos de entrenamiento para el robot humanoide Optimus podrían ser al menos 10 veces mayores que los necesarios para los autos”.
“Es una forma muy al estilo Tesla de desarrollar robots. Ninguna otra empresa está intentando hacerlo a esta escala”, dijo Aitken. “Necesitan una cantidad de datos tan grande como la que usan para entrenar autos”.
Alan Fern, experto en IA y robótica de la Universidad Estatal de Oregón, señaló que entrenar a Optimus es incluso más desafiante para Tesla que desarrollar autos autónomos.
“Conducir es solo una tarea”, dijo. Depender principalmente del aprendizaje por video “requiere que el robot no solo entienda lo que ocurre en el video, sino que también tenga las habilidades para completar la tarea. Algunas cosas se pueden aprender observando, pero otras requieren práctica en simuladores o en el mundo real”.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
AiCoin Informe Diario (26 de agosto)
Rompiendo el enigma de los precios: ¿de dónde proviene el valor duradero de la blockchain?
Si medimos el éxito por la especulación, estaremos construyendo castillos de arena. Si medimos el éxito por la infraestructura, estaremos sentando las bases.
Conversación con Ray Dalio: De la asignación de activos a la herencia de la riqueza, 10 reglas financieras para los amigos chinos
A largo plazo, el efectivo es una inversión muy mala.

¿Qué es realmente el meme de Ethereum que incluso Tom Lee está siguiendo?
¿Habrá un mercado de memes relacionado con el concepto de Tom Lee?

En tendencia
MásPrecios de las criptos
Más








