[responsivevoice_button voice=”Spanish Latin American Female” buttontext=”Escuchar”]

Meta presentó esta semana robots con Inteligencia Artificial (IA) capaces de desarrollar habilidades sensomotoras desafiantes, gracias a dos avances: la coordinación adaptativa de habilidades sensomotoras (ASC), y el cortex visual (VC-1).

VC-1 es un modelo de percepción que, por primera vez, es compatible con una amplia gama de habilidades sensomotoras, entornos y personificaciones.

“VC-1 se entrena con videos de personas realizando tareas cotidianas del innovador conjunto de datos Ego4D creado por Meta IA y socios académicos. Y VC-1 iguala o supera los resultados más conocidos en 17 tareas sensomotoras diferentes en entornos virtuales”.

La ASC que logra en entornos físico un rendimiento “casi perfecto”, con un 98 % de éxito, en la desafiante tarea de copiado móvil robótico, como por ejemplo dirigirse hasta un objeto, recogerlo, desplazarse hasta otra ubicación y colocar el objeto.

Una de las características de la IA es que necesita datos de los que aprender y en ambos casos, se desarrollaron “nuevas formas para que los robots aprendan, utilizando videos de interacciones humanas con el mundo real e interacciones simuladas dentro de mundos simulados”.

Meta está interesado en desarrollar de manera artificial una corteza visual, réplica de la región del cerebro que (junto con la corteza motora) permite que un organismo convierta la visión en movimiento.

“El módulo es un sistema de IA que permite a un agente artificial convertir la entrada de la cámara en acciones”.

Con información de EFE

Dejar una comentario

Por favor ingresa tu comentario
Por favor introduce tu nombre aquí
Captcha verification failed!
CAPTCHA user score failed. Please contact us!