El martes, Google Deepmind lanzó un nuevo modelo de idioma llamado Gemini Robotics en el dispositivo, que permite a los robots realizar tareas localmente sin la necesidad de una conexión a Internet.
Basado en el modelo de robótica Gemini anterior de la compañía lanzado en marzo, el Gemini Robotics en el dispositivo puede controlar el movimiento del robot. Los desarrolladores pueden controlar y ajustar el modelo para satisfacer una variedad de necesidades utilizando indicaciones de lenguaje natural.
En el punto de referencia, Google afirma que el modelo se ejecuta en un nivel más cercano al modelo de robótica Gemini basado en la nube. La compañía dice que es superior a otros modelos de dispositivos en sus puntos de referencia generales, pero estos modelos no se nombran.

En la demostración, la compañía mostró que el robot que dirigía este modelo local estaba haciendo cosas como desabrochar bolsas o plegar ropa. Google dice que si bien el modelo fue entrenado por robots de Aloha, más tarde fue adaptado por Apptronik trabajar con robots de Franka FR3 y robots humanoides de Apolo.
Google afirma que el Bi-Arm Franka FR3 ha logrado abordar escenarios y objetos «invisibles» anteriormente, al igual que los ensamblajes en un cinturón industrial.
Google Deepmind también ha lanzado el SDK de Gemini Robotics. La compañía dijo que los desarrolladores podrían mostrar demostraciones de 50-100 tareas en el robot y entrenarlas en nuevas tareas utilizando estos modelos del simulador de física de Mujoco.
Otros desarrolladores de modelos de IA también están sumergiendo los dedos de los pies en la robótica. Nvidia está construyendo una plataforma para crear modelos humanoides básicos. La cara adoptada no solo desarrolla modelos y conjuntos de datos abiertos para robótica, sino que también funciona con robots. Y la startup coreana Rlwrld de Mirae Asset está trabajando en la creación de un modelo básico del robot.
Source link
