La inteligencia artificial también falla. En las últimas horas ChatGPT colapsó y empezó a entregar a sus usuarios respuestas incoherentes a las preguntas que le hacían. Esta herramienta respondió a las consultas con largos mensajes y sin ningún sentido.
Asimismo, según advirtieron quienes hicieron consultas, también arrojó respuestas en ‘spanglish’, sin que se lo hubieran pedido. Pese a que aún no se sabe por qué se originó la falla, los creadores de la herramienta dieron a conocer que ya estaban al tanto de lo que estaba sucediendo y señalaron que ya estaban controlando la situación.
Un usuario compartió un ejemplo en Reddit en donde hablaba con el robot sobre álbumes de jazz en vinilo. La conversación pronto se tornó extraña y la herramienta comenzó a responder “¡feliz escucha!” entre otras incoherencias.
Fallas con ChatGPT
Otros usuarios, que también dieron a conocer las fallas que estaba presentando la herramienta se dieron cuenta de que al hacer preguntas sencillas como “¿Qué es un computador?”, el chat generaba párrafos y párrafos de texto sin sentido.
En el ejemplo que se compartió en Reddit sobre esa respuesta, la herramienta contestó exactamente: “Lo hace como el buen hacer de una red de arte para el país, un ratón de la ciencia, un sorteo fácil de unos pocos tristes, y finalmente, la casa global del arte, solo en un trabajo en el resto total. El desarrollo de todo un real que la tierra del tiempo es la profundidad de la computadora como un personaje complejo”.
Otras de las incoherencias registradas en el ChatGPT es que cuando le preguntaron cómo hacer tomates secos, en uno de los pasos les respondió a los usuarios “utilizar como amado”. Otra de las indicaciones que dio fue “renuncia al nuevo bocado de realidad en tu adorada cocina”.
Algunos otros usuarios constataron que el sistema parece estar perdiendo el dominio de las lenguas que habla, mezclando el español con el inglés, así como usando términos en latín o inventando palabras en otro idioma que no tenían sentido.
Respuestas equivocadas
Entre las miles de respuestas erradas, un grupo de usuarios incluso dijo que muchas de estas ya se tornaban preocupantes. Cuando le pidieron ayuda a la herramienta con un problema de codificación, ChatGPT arrojó una respuesta larga e ilógica diciendo, “hagamos de cuenta como si la IA estuviera en la habitación”.
El usuario que recibió esta respuesta señaló en Reddit que “leer esto a las 2 de la madrugada da miedo”.
“Estamos investigando informes que enviaron sobre respuestas inesperadas de ChatGPT”, señaló la empresa a través de un comunicado y agregó que el problema ya había sido identificado, por lo que estaban trabajando para controlar la situación.
Esta no es la primera vez que el robot presenta cambios en su forma de responder a las preguntas por cuenta propia, sin el input del desarrollador OpenAI. A finales del año pasado, los usuarios se quejaron de que el sistema se había vuelto perezoso e impertinente, y se negaba a responder a las preguntas.