La funcionalidad «Beta Rabbit» ahora es más inteligente, siendo capaz de funcionar a través de la cámara y su modo visión, además de alarmas y timers
Tras la noticia de que Rabbit iba a dejar de lanzar actualizaciones semanales ni siquiera confiaba en que hubiese novedades en un corto periodo de tiempo, pero parece que hoy —mientras escribo mi r1 se está actualizando— vamos a ver cambios significativos y sobre todo el Beta Rabbit.
Beta Rabbit como modelo principal del r1
Parece que nos han sorprendido y sí hay alguna novedad que resaltar en el Beta Rabbit, como la ya conocida nueva opción de usarlo en el Modo Vision, lo cual no era posible hasta ahora.
El mensaje original de Simon B. ha sido el siguiente:
¿Qué hay de nuevo? 🎶
¡Beta rabbit ahora soporta el Modo Visión!
Toca dos veces el botón PTT (Push To Talk) para entrar en modo visión.
Mientras mantienes presionado PTT, pregunta a beta rabbit sobre lo que está viendo.
Cuando termines con tu pregunta, suelta el PTT para tomar la foto.
Si beta rabbit hace una pregunta de aclaración, presiona PTT para responder y prepárate para tomar otra foto. Cuando sueltes PTT para continuar la conversación.
Las preguntas de seguimiento de beta rabbit ahora están juntas en una sola entrada en Rabbithole.
Si beta rabbit tarda un tiempo en responder preguntas complejas como búsquedas de imágenes o cálculos, tu r1 te mantendrá informado para que sepas que todavía está pensando.
*** Beta rabbit todavía es una característica beta, por lo que puede que no funcione perfectamente cada vez, pero prueba algunas de estas opciones ***
1- Apunta a una pintura o la foto de una pintura y pregunta, “beta rabbit, ¿qué estilo tiene esta pintura? ¿puedes mostrarme más obras de arte en este género? ¿dónde puedo encontrarlas en museos cercanos a mí?»
2- Apunta a la funda genial del teléfono de tu amigo y pregunta, “¿dónde puedo conseguir este tipo de funda para teléfono?”
ve a rabbithole y revisa los enlaces a tiendas en línea recomendadas
3- Apunta a la tabla nutricional de un snack japonés o cualquier snack en un idioma extranjero y pregunta, “beta rabbit, ¿cuáles son los datos nutricionales de este snack? ¿es saludable?”
4- Apunta a un juguete y pregunta, “beta rabbit, este es uno de los juguetes favoritos de mi sobrino. ¿puedes recomendarme algunas opciones de regalos similares que creas que también le gustarían por menos de $20?”
5- Apunta a un cartel de película y pregunta, “beta rabbit, ¿de qué trata esta película? ¿es buena? ¿dónde puedo verla?”
6- Apunta a un plato con el que no estés familiarizado y pregunta, “beta rabbit, ¿cómo se hace algo como esto?”
Como verás, parece que esta funcionalidad no solo ha pasado a estar dentro del Modo Visión, sino que además parece que es aún más inteligente en lo que respecta a las respuestas. Además, hay algunos cambios significativos como que las preguntas estén juntas en el Rabbit Hole.
Probando el Beta en modo visión
He estado haciendo algunas pruebas con la opción Beta del Rabbit r1 mostrándole y ha sido esperanzador y decepcionante al 50%. Así parece que va a ser mi relación con este dispositivo desde que llegó a estar entre mis manos…
Para empezar, el mismo límite de siempre: el idioma. Vale que sé el suficiente inglés como para poder formar frases sencillas y no debería de ser un problema, pero sigo notando que no nos entendemos a veces. Cuando uso ChatGPT es todo mucho más sencillo.
Por otra parte es muy lento. Con lento me refiero a que tras hacer la pregunta y la foto puede pasar casi 1 minuto hasta que responde, y es mucho tiempo. La misma pregunta con ChatGPT en su versión GPT-4o es mucho más rápido.
Además, falla. Falla mucho. Le he hecho varias preguntas sobre comprar artículos online —una impresora 3D y un micrófono— y el 60% de las veces no acierta con el modelo, mientras que otros LLM como Perplexity y ChatGPT lo han hecho a la primera.
Los fallos del modo Beta Rabbit
Aunque realmente da buenas respuestas, tiene fallos flagrantes.
Para empezar, más de la mitad de las veces no detecta el modo «Beta Rabbit». Lo he pronunciado BETA, lo he pronunciado BERA… Ya no sé qué más probar. Es bastante frustrante que no reconozca la voz. Admito que puede ser problema mío, pero tantas veces se me hace raro.
Hasta ahora tenía dudas, pero casi viendo el primer mensaje es una realidad que el nuevo Beta va a ser el sistema por defecto en el dispositivo r1. Esto tiene muchísimo sentido, ya que si de base funciona mejor que el sistema antiguo, ¿por qué no usarlo como base?
Temporizadores y alarmas
Una de las novedades y una de las especificaciones que más se pidieron desde un primer momento era algo tan sencillo como temporizadores y alarmas. Era sencillo pero ha costado varios meses estar disponibles para todo el mundo.
Simon B. lanzó un comunicado hace escasos minutos avisando de la actualización y dando algunos trucos de prompts para usarlo correctamente.
La novedad de este sistema es que no pides un temporizador en formato segundos/minutos, sino que si vas a cocer unos huevos y le pides que estén poco hechos, va a elegir un temporizador de 7 minutos, mientras que si los quieres duros va a elegirlo de 12.
Digamos que es un temporizador inteligente, capaz de entender lo que quieres, su contexto y poner el temporizador en base a lo que quieras. Yo lo he probado para tiempos relacionados con la cocina y el estudio y la verdad es que cumple.
En Discord nos ponen algunos ejemplos:
- “Establece un temporizador para hornear galletas con chispas de chocolate”
- “Establece un temporizador para una siesta energética”
- “¿Cuánto tiempo queda en mi temporizador?”
- “Configura una alarma para las 8 a.m. todos los martes y jueves”
- “Muéstrame todas mis alarmas”
Un pequeño salto de calidad mientras llega lo que realmente esperamos: el idioma español y el uso del LAM y el Teach Mode…