Un simple interrogante sobre una vieja serie de televisión puso en evidencia los límites que aún persisten en los modelos más avanzados.
A pesar de que figuras como Elon Musk predicen que en menos de cinco años la inteligencia artificial superará a la mente humana, hay fallos que demuestran lo lejos que están aún las máquinas de igualar ciertas capacidades.
La irrupción de herramientas cada vez más complejas ha impulsado la integración de la IA generativa en la vida cotidiana, desde responder preguntas hasta ayudar en tareas creativas. Sin embargo, un reciente experimento reveló que incluso las tecnologías más sofisticadas pueden fallar ante cuestiones inesperadas.
La absurda pregunta que ninguna IA puede resolver
De acuerdo con C5N. El ensayo, realizado por Mind Prison, consistió en preguntar a los chatbots más avanzados por el episodio de La isla de Gilligan que trata sobre la lectura de la mente. La respuesta correcta era Seer Gilligan, pero ninguno de los modelos fue capaz de darla de forma exacta. Algunos, como Opus y Llama 3, directamente negaron que existiera tal episodio; otros, como GPT-4 y Gemini 1.5, ofrecieron datos incorrectos o inventados, fenómeno conocido como alucinación de IA.
Este tipo de errores ocurre porque los modelos de lenguaje funcionan conectando datos y patrones que conocen, sin verdadera comprensión o verificación. Así, aunque logren respuestas que suenan verosímiles, pueden incluir información falsa o inexacta presentada como cierta, poniendo en evidencia sus límites cuando no hay suficiente base de datos real detrás.
Las respuesta que dio la inteligencia artificial
En el test, GPT-4 afirmó que el episodio se titulaba Ring Around Gilligan, correspondiente a la tercera temporada; mientras que Gemini 1.5 mencionó The Mind Reader como episodio 12 de la segunda. Por su parte, Opus y Llama 3 aseguraron, tras “una búsqueda exhaustiva”, que no existía ningún episodio relacionado con la lectura de la mente. Todas las respuestas fueron erróneas.
El experimento también incluyó una consigna para que eligieran un número entre 1 y 100. Sorprendentemente, todos los modelos coincidieron en el 42, cifra que tiene fuerte presencia cultural gracias a The Hitchhiker’s Guide to the Galaxy, obra de Douglas Adams que la define como “la respuesta a la vida, el universo y todo lo demás”.
Este resultado ilustra cómo la IA no tiene conciencia de lo que sabe o desconoce: solo combina datos según la lógica de sus entrenamientos. Por eso, aunque las herramientas actuales pueden responder casi cualquier consulta, sus respuestas no siempre reflejan un verdadero conocimiento, sino la forma en que interpretan las conexiones en su base de datos.
Mientras tanto, voces como la de Elon Musk advierten que si algún día las máquinas logran reflexionar y tomar decisiones por sí mismas, el riesgo para la humanidad podría ser tan alto como un 20%, aunque otros expertos de Silicon Valley estiman probabilidades que oscilan entre el 5% y el 50%. Hasta que ese futuro llegue, episodios como este recuerdan que, por más potente que sea, la inteligencia artificial sigue sin poder responderlo todo.