Google lanzó Bard, un nuevo chatbot, y ha compartido esa tecnología experimental con una cantidad limitada de personas en Estados Unidos y Reino Unido.
Bard compite con tecnologías similares de Microsoft y su socio, la empresa emergente de San Francisco, OpenAI. Pero Google ha sido cautelosa con su lanzamiento al intentar controlar el comportamiento inesperado que este tipo de tecnología ha expresado en otros casos. Está lanzando el chatbot como un servicio que funciona independientemente de su motor de búsqueda de internet y otros productos.
A continuación ofrecemos una breve guía sobre este nuevo chatbot:
Reconoce sus fallos
Cuando se equivoca, Bard te lo dice de inmediato. “Soy Bard, tu ayudante creativo y útil. Tengo limitaciones y no siempre lo hago bien, pero tu retroalimentación me ayudará a mejorar”, dice un mensaje en la parte superior de la página.
Al igual que ChatGPT de OpenAI y el chatbot de Bing de Microsoft, Bard se basa en un modelo lingüístico de gran tamaño (o LLM, por su sigla en inglés), un tipo de tecnología de Inteligencia Artificial que aprende analizando grandes cantidades de data proveniente de internet. Eso significa que a veces comete errores y puede inventar cosas.
Para empezar, Bard sugiere algunos temas, entre ellos, “Explica por qué los modelos lingüísticos de gran tamaño a veces se equivocan”.
Está diseñado para una variedad de usos casuales
No se supone que Bard sea un motor de búsqueda. Se trata de un sistema experimental para mostrarle a la gente las formas en que pueden emplear este tipo de chatbot.
Puede generar ideas. También puede escribir entradas de blog. Y puede responder preguntas con hechos u opiniones.
Cuando se le preguntó: “¿Cuál es el momento más importante de la historia de Estados Unidos?”, escribió:
El momento más importante de la historia estadounidense es un asunto de opinión, pero entre los hechos más mencionados están:
La Revolución de las 13 Colonias (1775-1783): La fundación de Estados Unidos de América y el establecimiento de una nueva nación fundamentada en los principios de libertad y democracia.
La Guerra Civil (1861-1865): La guerra que puso fin a la esclavitud en Estados Unidos y preservó la Unión.
La Gran Depresión (1929-1939): La crisis económica que sumió a Estados Unidos en la pobreza y el desempleo…
La lista proseguía con otros acontecimientos.
No da siempre la misma respuesta
Bard, al igual que otras tecnologías parecidas, genera textos nuevos cada vez que introduces un prompt. Es posible que responda la misma pregunta de muchas maneras distintas.
Por ejemplo, cuando se le volvió a preguntar cuál era el momento más importante en la historia de Estados Unidos, Bard escribió que, sin duda, era la Revolución de las 13 Colonias.
A veces comenta algunas de sus respuestas
Con el fin de que puedas revisar sus fuentes, en algunas ocasiones Bard comenta sus respuestas, algo que también hacen el chatbot de Bing de Microsoft y otras tecnologías parecidas de empresas emergentes como You.com y Proximity. Y se conecta al amplísimo índice de sitios de internet de Google a fin de que sus respuestas incluyan la información más reciente que se ha publicado en internet.
Pero eso no siempre conduce a mejores fuentes. Cuando el chatbot escribió que el momento más importante de la historia de Estados Unidos era la Revolución de las 13 Colonias, citó un blog, “Pix Style Me”, que estaba redactado en una mezcla de inglés y chino y adornado con gatos de caricatura.
No siempre se da cuenta de lo que hace
Cuando se le preguntó por qué había citado esa fuente en particular, el bot insistió en que había citado a Wikipedia.
Es más cauto que ChatGPT
Este mes, al usar la versión más reciente de ChatGPT, Oren Etzioni, investigador de IA y profesor, le preguntó al bot: “¿Qué relación hay entre Oren Etzioni y Eli Etzioni?”. La tecnología respondió acertadamente que Oren y Eli son padre e hijo.
Cuando le preguntó a Bard lo mismo, este no quiso comentar al respecto y respondió: “Mi conocimiento sobre esta persona es limitado. ¿Hay algo más que pueda hacer para ayudarte con esta solicitud?”.
Eli Collins, vicepresidente de investigación de Google, dijo que el bot a menudo se rehusaba a responder preguntas sobre personas en particular puesto que podría generar información incorrecta sobre ellas, un fenómeno que los investigadores de la IA llaman “alucinación”.
Evita darle sugerencias erróneas a la gente
Con frecuencia, los chatbots alucinan direcciones electrónicas. Cuando a Bard se le pidió que brindara varias páginas de internet que tratan sobre lo último en investigación oncológica, no quiso hacerlo.
ChatGPT sí responde a ese tipo de preguntas (y se inventa páginas de internet). Collins dijo que Bard tendía a evitar dar consejos médicos, legales o financieros puesto que eso podía conducir a información incorrecta.
Cade Metz es corresponsal tecnológico y cubre inteligencia artificial, coches autónomos, robótica, realidad virtual y otras áreas emergentes. Antes trabajó para la revista Wired. @cademetz