...

Así es como Rabbit Inc. ha entrenado hasta el momento a más de 800 aplicaciones

Según parece, el Rabbit R1 estará preparado para soportar cientos de aplicaciones y webs desde el momento de su lanzamiento

Parece que desde hace ya varios años Jesse Lyu y su equipo se han tomado muy en serio el concepto de convertir a la Inteligencia Artificial en un ejecutor capaz de llevar a cabo tareas y acciones que hasta ahora hemos estado haciendo nosotros.

Y es que en la última entrevista que le han hecho al CEO de la compañía en StrictlyVC, desde TechCrunch.com ha confirmado algo que muchos esperábamos y que hasta ahora no habíamos escuchado.

Según ha dicho, el proceso fue el siguiente:

Planteamiento del problema: ¿Qué queremos?

Jesse se planteaba desde hace años el LAM como la posibilidad de que una inteligencia artificial actuase como lo haríamos nosotros, pero desde un primer momento tenía problemas para encontrar la solución. Según sus propias palabras:

Intentando resolver las «acciones», teníamos varias opciones: Podíamos hacerlo a través de GPT’s, de plugins o de API’s, pero como Startup, obviamente no era la mejor manera de avanzar…

Así que la respuesta era hacer algo que ya hacíamos instintivamente las personas, y tratar de estudiar la manera en la que lo hacíamos. Los datos ya estaban ahí, y sencillamente había que entender cómo funcionaba y usarlo.

«Neurosymbolic», la solución al aprendizaje y a la acción de la IA

Aquí donde surge la idea de usar el ¿neurosimbolismo? —no sé si hay una traducción correcta al español— y de utilizar lo que ya hacemos para mostrárselo a la IA y hacer que ejecute esas acciones por nosotros.

La Inteligencia Artificial Neurosimbólica: Una Fusión de Redes Neuronales y AI Simbólica

Como resumen, la Inteligencia Artificial Neurosimbólica, representa un enfoque avanzado en el campo de la inteligencia artificial que combina redes neuronales con técnicas de AI simbólica y permiten la ejecución de tareas.

A partir de este momento es donde la gente de Rabbit vio la solución al problema. ¿Y si usaban todos los datos que tenían de la recolección de interacciones de diferentes empresas? Y es así como desde 2020 han estado trabajando con aplicaciones de terceros.

Bastaba conocer cómo interactúan las personas con las diferentes aplicaciones, recopilar los datos y usarlos, y es precisamente lo que han hecho, ¡CON MÁS DE 800 APLICACIONES DIFERENTES! De esta manera tenían casi todo a su favor.

Empezamos pidiendo a esos revisores que nos ayudasen a obtener interacciones reales de gente con Spotify, Uber, Expedia o la que fuese, así que tenemos a 800 de las apps más frecuentes y entonces recolectamos esas grabaciones de humanos de verdad e interacciones con diferentes interfaces.

Es así, explica Lyu, como tras esa recolección de datos, empezaron a pedirle a la IA que analizase las grabaciones de interacciones humanas paso a paso para ser capaz de entender cómo los humanos llegamos a nuestro objetivo final.

De este modo, el LAM o Gran Modelo de Acción es entrenado para que pueda llegar al mismo fin que nosotros pulsando los mismos botones que nosotros.

¿Qué opino yo en este momento?

Pues que es pronto de momento, pero que si son capaces de cumplir con la mita de lo que parece que ya han conseguido, el uso de este dispositivo va a ser un auténtico «MUST» para mí y para muchísima gente más.

¿Te gusta leer?

Prueba Amazon Kindle Unlimited totalmente GRATIS durtante los primeros 30 días

Relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

¿Dudas con la tecnología? Escríbeme en mis redes.