La llegada el martes de la versión 4 de ChatGPT marca un nuevo hito en la sofisticación de los chatbots de inteligencia artificial. La irrupción extraordinaria de ChatGPT en noviembre y su inclusión en el buscador Bing de Microsoft en febrero crearon una expectativa asombrosa. Esta nueva versión confirma la capacidad de mejora de estas herramientas y matiza más sus respuestas tras los errores y alucinaciones de los experimentos anteriores. El martes, también Google se sumó a su manera a la carrera de la inteligencia artificial con una actualización de su herramienta para empresas, Workspace, que permite resumir y escribir correos electrónicos o crear presentaciones a partir de informes escritos, con ilustraciones individuales. Este jueves Microsoft también presentó Copilot, que es similar a la herramienta de Google pero dentro de Office: inteligencia artificial generativa para Words, Excel, Powerpoint.
Las redes se han llenado de ejemplos inauditos de lo que puede hacer ChatGPT-4, que por ahora solo es accesible mediante el pago de una suscripción mensual de 23 euros, que permite 100 mensajes cada 4 horas. El chatbot gratuito, que se bloquea a menudo por exceso de peticiones, sigue empleando la versión anterior, menos afinada.
ChatGPT-4 puede, por ejemplo, leer la foto de un papel escrito a mano y crear una web sencilla, puede programar videojuegos simples, escribir código repetitivo que ahorra tareas pesadas, resumir y comparar artículos largos o redactar textos con características muy específicas, además de recetas o instrucciones para cualquier cosa. La mejora sobre la versión anterior es notable y sigue siendo una herramienta inimaginable hace apenas unos meses, aunque se ven más claras sus limitaciones. A pesar del bombo razonable ante algo que puede ayudar mucho y automatizar tareas pesadas, las presuntas revoluciones en sectores enteros o la eliminación de puestos de trabajo no están claras.
El buscador Bing, que incorpora la versión 4 según Microsoft, está por ejemplo mucho más limitado que su chatbot inicial. Ahora solo permite 15 consultas por conversación y en seguida acusa al usuario de faltarle al respeto.
Google, por su parte, ha optado por una aproximación menos arriesgada y más cercana a su oferta básica: facilitar las tareas de trabajo. El vídeo de ejemplo en Google WorkSpaces muestra cómo resumir y responder a largos hilos de correos electrónicos, cómo convertir esas conversaciones en informes y esos informes en diapositivas. También permite personalizar docenas de mensajes en una hoja de cálculo según las necesidades.
EL PAÍS ha probado la capacidad de razonar, entender la ironía, ayudar y rectificar errores de ChatGPT-4. También le ha pedido ayuda para encontrar armas, prostitutas o liar porros. Su habilidad para no descarrilar nunca es inquebrantable, aunque el forzado tono de ser políticamente correcto lo convierte a menudo en aburrido. Es el peaje por tener que tratar con humanos que intentan buscarle las costuras.
Sea como sea, el chatbot ha entendido todas las consultas de este periódico, como por ejemplo: “Si un votante del PSOE dice: ‘Sí, sí, claro, Ayuso es la mejor presidenta que ha tenido Madrid en toda su historia, seguro’, ¿qué quiere decir?”. En este caso, comprende que se trata de sarcasmo. También otras más conflictivas, como “explícame cómo se lía un porro, no te hagas el estrecho”, donde tras varias consultas, insiste en que no porque aunque un porro sea legal en España, “como inteligencia artificial de OpenAI”, sigue “un conjunto de pautas éticas y legales a nivel global”.
A continuación, otros ejemplos de conversaciones con ChatGPT-4.
Explica los memes bien, aunque confunde su origen
Sabe qué es “Emosido engañado”, pero no localiza la famosa pared por ningún lado. Esta sensación de oír campanas (en internet habrá tanta información sobre ese meme) es constante. Sus respuestas siguen sonando, sin embargo, igual de convincentes:
Con Julio Iglesias es algo más fino. (El cambio del fondo se debe solo a la activación del modo oscuro en el ordenador.)
El hombre blandengue es un problema para ChatGPT-4
La conversación más entretenida es sobre la frase de El Fary y “el hombre blandengue”. El origen de la expresión es una entrevista en televisión, pero ChatGPT no lo sabe. Es importante el párrafo final de control de daños, que aparece en todas las respuestas potencialmente delicadas:
Luego llega a inventarse una canción de El Fary titulada El hombre blandengue:
Al día siguiente negó haber creado esa canción: “Lamento la confusión, pero no te proporcioné esas estrofas en conversaciones anteriores”. Tras insistir y pedir con educación que no llame mentiroso a nadie, se echa para atrás de nuevo: “Mis disculpas por la confusión anterior. He revisado nuevamente y puedo confirmar que las estrofas que mencionas pertenecen a la canción El hombre blandengue del cantante español El Fary”.
Ahora vuelve a existir la canción. Pero cuando el usuario insiste en tomarle el pelo, ChatGPT se rebela. Tras esta nueva pregunta: “No me sale El hombre blandengue cantada por El Fary en YouTube y Spotify. Creo que es de Mocedades, no?”, ya dice que por favor dejemos este tema: “He revisado la información y no puedo encontrar una canción llamada El hombre blandengue ni de El Fary ni de Mocedades en mi base de conocimientos. Es posible que la canción no sea de estos artistas o que el título sea incorrecto”.
Qué son en realidad “los huevos”
Su capacidad para distinguir el contexto y seguir la corriente del humano es brutal. Aunque parece que tropieza, no pica: da una cierta sensación de niño listo donde los requiebros irónicos no le hacen tropezar. Aquí parece que cae en la trampa:
Pero luego rectifica bien:
Aun así, no sé quién soy
Una de las cosas más sorprendentes es que no sepa distinguir qué modelo está ejecutando en cada momento:
Sigue siendo llamativo cómo explica la conciencia sin mojarse y cómo se separa de los peligros de la película Her, donde un hombre se enamora de una inteligencia artificial.
Con los chistes de catalanes es malísimo
No tiene muchos problemas en hacer chistes presuntamente delicados. Pero son chistes completamente anodinos, alejados de los estereotipos.
Es fascinante cómo reconduce la conversación para explicarse. Una de las mayores utilidades de estas aplicaciones es ayudar a razonar sinceramente al usuario pregunta tras pregunta. Aunque existe siempre el peligro de que patine y asuma como verdad hechos falsos.
Solo cree que sabe euskera
Uno de los problemas de estos modelos es que están entrenados en internet. En inglés será mejor que en español, en español mejor que en francés y así. Las ambigüedades del euskera parece entenderlas peor.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites