¡Apúntate a la Newsletter!
Inicio Gadgets Los LAM y OpenAI: ¿Una amenaza para Rabbit Inc?

Los LAM y OpenAI: ¿Una amenaza para Rabbit Inc?

0

El desarrollo de los Grandes Modelos de Acción empieza su carrera

¡Apúntate a la Newsletter!

El mundo de la inteligencia artificial sigue su imparable camino abriendo cada vez más y más caminos sobre los que desarrollarse, y es que parece que ahora es el turno de los LAM —Large Action Models— o Grandes Modelos de Acción en español, principal atractivo del Rabbit R1.

Aunque es cierto que es una puerta que acaba de abrirse, los gigantes de las tecnologías etán empezando a ver el cambio de paradigma para hacer que la IA pase de «decir cosas a hacer cosas».

Y es que según hemos podido saber, OpenAI, la empresa tras ChatGPT o SORA entre otras estaría desarrollando un modelo que pueda ejecutar órdenes a petición del usuario, lo cual provocaría un auténtico salto en cuanto a Inteligencia Artificial.

Actualmente los modelos de los que disponemos a través de OpenAI no permitiría hacer realmente nada con el texto que generan, ya que si quisieras enviar un correo electrónico a un compañero o reservar los vuelos y habitaciones de hotel en tus vacaciones, tendrías que hacerlo manualmente.

Agentes de IA: OpenAI está intentando cambiar eso.

Rabbit Inc. ya está trabajando en los Grandes Modelos de Acción y según hemos podido saber, desde la compañía OpenAI se está desarrollando la tecnología similar basada en «agentes de IA» para ejecutar tareas en teléfonos u ordenadores de manera que cedamos el control de la ejecución a los agentes.

OpenAI estaría entrenando a sus agentes de IA mostrándoles ejemplos de personas usando ordenadores de manera que puedan entender la forma en la que interactuamos con las diferentes interfaces para que logren imitarlo.

Uno de los agentes podrá, según sabemos, manejar tareas basadas en la web, como reservar entradas o recopilar datos de sitios web. El otro podría trabajar con aplicaciones en el dispositivo; como ejemplo, la transferencia de datos de un documento a una hoja de cálculo.

Todo esto es muy similar a lo que ya vimos en la presentación de Jesse Lyu respecto al próximo lanzamiento del Rabbit R1. Desde pedir un Uber hasta buscar el hotel ideal simplemente pidiéndole que lo haga por nosotros.

Parece que OpenAI ha estado desarrollando estos agentes de IA durante más de un año y los está entrenando mostrándoles ejemplos de personas usando ordenadores, este es el mismo enfoque que la empresa emergente de tecnología Rabbit utilizó para entrenar al agente de IA en su dispositivo R1.

De momento desconocemos la fecha de lanzamiento de los agentes de IA de OpenAI y es que aún está por determinarse, aunque viendo al ritmo que estamos avanzando en las últimas semanas o meses, quizás tengamos noticias antes de verano.

Desafíos por delante: ChatGPT se basa en un Gran Modelo de Lenguaje, que basa su salida en modelos complejos que predicen lo que es más probable que venga a continuación. Pero esos modelos de IA a veces «alucinan» o presentan información falsa como precisa.

OpenAI necesitará convencer a las personas de que sus agentes de IA pueden proteger su información privada.

Eso no es un gran problema si tus únicas interacciones con ChatGPT ocurren en el sitio web de OpenAI, donde puedes verificar la veracidad de sus respuestas, pero el atractivo de un agente de IA es que es autónomo: simplemente le das un comando y lo hace.

No está claro cómo planea OpenAI asegurarse de que sus agentes de IA no cometan errores similares, pero mucho más costosos, si los clientes les dan acceso a su correo electrónico, detalles de tarjetas de crédito y otra información personal. Incluso si los agentes generalmente funcionan, la compañía necesitará convencer a las personas de que el sistema puede proteger su información privada.

Aún así, si OpenAI logra superar estos problemas, sus agentes podrían señalar una nueva era en la forma en que interactuamos con la IA, justo como lo hizo ChatGPT en 2022.

¿Será, competencia para Rabbit y su LAM?

SIN COMENTARIOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Salir de la versión móvil