El gigante tecnológico lanzó el 10 de mayo una versión mejorada de su plataforma, Bard, en un esfuerzo por ofrecer a los usuarios funciones que tiene ChatGPT-4, e incluso algunas mejores.
Las diferencias entre ambos sistemas aún son perceptibles, pero los expertos consideran que la carrera se está igualando.
“En estos momentos ChatGPT-4 tiene clara ventaja. Bard está llegando como un retador, no como un líder”, considera Ricardo Carreón, director de tecnología de Hexabit, una firma de IA con sede en Texas, EE.UU.
“Pero se va a acercar y va a ser una competencia real entre las plataformas .
Una de las principales limitaciones de Bard sigue siendo que solo acepta instrucciones en inglés, japonés y coreano. Hasta la fecha, no ha llegado la prometida adaptación a más de 40 idiomas con la que se presentó la nueva versión.
“A medida que continuamos desarrollando Bard de manera responsable, estamos ampliando gradualmente el acceso a más países y regiones en inglés. Continuaremos implementándolo con el tiempo”, le dijo una fuente de Google a BBC Mundo, sin especificar fechas.
Por el contrario, una ventaja que tiene frente a ChatGPT-4 es que este último es una versión de pago (US$20), mientras que el chatbot de Google es de uso gratuito.
Fuera de eso, ¿qué tan cerca o lejos están las nuevas funciones de Bard respecto a ChatGPT-4?
1. Las imágenes en BardHasta hace unos meses, la interacción con los chatbots de Google y OpenAI estaba limitada al texto.
En una era en la que internet privilegia lo visual, esto en apariencia no encajaba. Pero OpenAI rompió la barrera al presentar ChatGPT-4 en marzo con la integración de imágenes a su chatbot.
Bard ha igualado esa función en su nueva versión, algo con que acelera el ritmo de la competencia.
La función más básica es la de recibir instrucciones basadas en una imagen. Por ejemplo, puedes preguntarle dónde está ubicada esa obra de arte que alguien compartió en Instagram sin mencionar el origen.
Por otro lado está la oferta de respuestas en imágenes. Con ello, por ejemplo, podrías pedirle que te presente fotos de los cuadros más visitados en el Museo de Louvre en París y obtendrás la respuesta con texto y fotos en segundos.
Pero lo innovador de la IA va más allá: “No es solamente buscar una foto, es leer qué hay en la foto y en base a eso poder ejecutar una cierta acción”, explica Carreón.
“Si tengo en la mesa huevos, tomate, cebolla y le pregunto ‘¿qué puedo hacer?’, me puede sugerir unos huevos a la mexicana y mostrar la receta con esos ingredientes. Entonces ya reconoce lo que hay en la foto y va más allá de buscar imágenes similares. Es entender qué hay en ellas“.
Esta capacidad se llama “función multimodal”: que en lugar de dar instrucciones al chatbot solo en texto, este sea capaz de entender también imágenes.
Otra función que aún no está disponible, pero que fue anunciada, es la generación de imágenes mediante IA de Adobe. Cuando sea lanzada, podrías pedir que cree la imagen con la combinación de elementos que le indiques.
¿Una foto de tu mascota con un gorrito de cumpleaños? Es algo que podrías pedirle.
Google dice que en este aspecto se encuentran en fase de experimentación todavía. “Queremos implementarla de manera gradual y responsable”, señaló la fuente consultada.
Sería un gran avance sobre ChatGPT-4, que no ha revelado planes para una función similar.
2. Integración a otros serviciosContar con la información que ofrecen los chatbots de IA es un primer paso, pero ¿qué sigue?
En la nueva versión de Bard, Google ahora ofrece una “salida” directa de esa información a su nube de servicios.
Puedes llevar directamente el contenido a tu correo de Gmail si le pides que escriba una petición de vacaciones para tu jefe. O al servicio de Docs si le pediste que compusiera una canción para tu papá.
El chatbot de OpenAI solo ofrece un botón para copiar el contenido en el portapapeles.
“A fin de cuentas está el mundo Google peleando con el mundo Microsoft con ChatGPT-4. Ya lo ha anunciado también como el copiloto en el email, en Office, para los programadores en GitHub, va a ser tu copiloto inclusive en Windows”, advierte Carreón.
“Entonces en ciertas funciones de Windows vas a poder recurrir a un asistente de inteligencia artificial para hacer ciertas tareas dentro del sistema operativo”, añade.
Lo que en realidad se espera de la industria de IA no solo es crear chatbots, sino adaptar esa enorme capacidad de procesamiento de información y aprendizaje a otras aplicaciones de uso cotidiano o especializado.
“Con una aplicación de reservas en restaurantes, al integrar inteligencia ya puedes decirle en el chat que te recomiende un lugar que sea vegano, que esté abierto en la noche hasta las 00:00. Te da la lista y le dices dónde quieres reservar”, apunta Carreón.
3. Muestra de fuentes de informaciónTanto Google como algunos expertos han destacado las capacidades mejoradas de razonamiento matemático o la codificación en más de 20 lenguajes de programación que ofrece la nueva versión de Bard.
Pero esto solo es percibido por los profesionales en esas áreas.
Sin embargo, una función adicional de Bard que ha sido destacada para el uso del usuario regular es la del enlistamiento de fuentes que ahora ya hace el chatbot de Google.
La IA ha despertado preocupación por las “alucinaciones” que llegan a presentar estos chatbots. Se llama así a la información errónea, inexacta o con deficiencias que producen a partir de sus enormes bancos de datos y su capacidad propia de producirla con base en aprendizaje.
Bard ahora despliega las múltiples fuentes de las cuales extrajo información, algo que ChatGPT no hace. Esto ayuda a crear confianza en los resultados, que pueden ser verificables.