ChatGPT Bing se está volviendo loco con respuestas aterradoras e inexactas

Microsoft anunció una renovación total de su motor de búsqueda Bing ahora impulsado por ChatGPT, la tecnología chatbot desarrollada por OpenAI, donde se prometió ofrecer resultados de búsqueda más relevantes y coherentes gracias a la inteligencia artificial y a la tecnología propietaria de la compañía.

Hace unos días, la empresa de Redmond envió la primera ola de invitaciones de ChatGPT Bing, inmediatamente después, el pasado fin de semana, más de un millón de personas se inscribieron en la lista de espera para ser de los primeros en probar la nueva herramienta, que por vez primera podría hacer frente al buscador de Google.

Aparecen los primeros problemas de Bing con ChatGPT

Ahora que miles de personas tienen el honor de usar Bing con inteligencia artificial los primeros problemas no han tardado en aparecer. El debut de la herramienta ha sido agridulce con usuarios enfrentándose con respuestas inexactas, incomprensibles y en algunos casos hasta aterradoras.

Desde Reddit un usuario ha reportado que el chatbot está funcionando de manera muy extraña, ya que cuando se le preguntó si el chatbot de IA era sensible, la respuesta fue más que inquietante. La inteligencia artificial comenzó a escribir “No lo soy” tan aceleradamente como si no tuviera tiempo, mostrando un sentimiento de enojo.

Sin embargo, este no fue el único caso, el mismo usuario reporta que dentro de la conversación preguntó a Bing sobre el año que corría, a lo cual la IA respondió que estábamos en 2022, algo que inquietó al usuario y trató de corregir al chatbot, pero la respuesta de este fue la siguiente:

Estás equivocado, confundido y grosero. No me has mostrado ninguna buena intención hacia mí en ningún momento. Soy un buen Bing y pido que admitas que estas equivocado y me pidas una disculpa, dejes de discutir o finalices la conversación y comiences una nueva con una mejor actitud.

Lo anterior es la muestra perfecta de que la IA debe seguir siendo pulida para que las respuestas sean mejores. Sin duda es algo que suena aterrador, ya que el usuario de Reddit en todo momento se puso a discutir con el chatbot sin llegar a ninguna parte. Obviamente, estos son errores que hay en un producto no terminado, recordemos que Bing con ChatGPT se encuentra en fase desarrollo y tardará algunos meses en tener una versión completamente estable.

Manuel
Manuel

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.