ChatGPT y Gemini pueden hacer chistes, pero no entienden del todo tus juegos de palabras.

Todos hemos visto a una IA escribir un limerick o un chiste de papá… pasable. Pero un nuevo estudio académico acaba de romper esa barrera. Resulta que, si bien los grandes modelos de lenguaje (LLM) como ChatGPT y Gemini de Google son excelentes para imitar la estructura de un chiste, generalmente no tienen idea de por qué es gracioso, especialmente cuando se trata de juegos de palabras.

El artículo, ingeniosamente titulado "Juego de palabras no intencionado: LLMs y la ilusión de comprender el humor", analizó a fondo cómo estos bots gestionan los juegos de palabras. ¿El veredicto? Están fingiendo. El estudio descubrió que, si bien la IA puede inventar fácilmente un chiste que ya ha visto, se desmorona por completo al intentar comprender los sutiles significados de doble cara que hacen que un juego de palabras funcione.

La IA no es tan divertida como pretende ser

La cuestión con los juegos de palabras es que se basan en la polisemia (palabras con múltiples significados) o sonidos parecidos para crear un conflicto lúdico en el cerebro. Los humanos lo hacemos sin esfuerzo. La IA, en cambio, solo reconoce patrones.

Los investigadores lo demostraron básicamente troleando a los bots. Crearon dos nuevos conjuntos de pruebas llamados PunnyPattern y PunBreak. Tomaron juegos de palabras reales y los modificaron ligeramente, intercambiando palabras clave para eliminar el doble sentido, pero manteniendo la estructura de las oraciones.

Un humano sabría al instante que el chiste estaba arruinado. ¿Y la IA? A menudo insistía en que la frase era graciosa solo porque parecía un chiste que había visto durante el entrenamiento. Es como alguien que se ríe de un chiste que no ha oído solo para encajar. Esto demuestra que, a pesar de su confianza, estos modelos no captan el humor; solo lo reproducen.

Pero tu asistente de IA aún no es un comediante

Si eres escritor, comercializador o simplemente alguien que intenta darle vida a una presentación con ChatGPT, es posible que quieras volver a verificar esa copia.

Esta investigación sirve como una advertencia contundente: el ingenio generado por IA suele ser hueco. Dado que el modelo no comprende la intención detrás del juego de palabras, podría generar un "juego de palabras" sin sentido alguno, o pasar por alto por completo el sarcasmo y la ironía. Es la diferencia entre un comediante que sabe cómo convencer a un público y un loro que repite un chiste de toc-toc. Si se confía demasiado en él para la escritura creativa, se corre el riesgo de publicar contenido que parezca robótico o, peor aún, confusamente aburrido.

¿Podrá la IA comprender verdaderamente los juegos de palabras?

Los investigadores argumentan que alimentar a la IA con más datos no solucionará este problema. Para comprender realmente un juego de palabras, un sistema necesita comprender cómo suenan las palabras (fonética) y captar el contexto cultural que hace que un giro sea gracioso. Actualmente, los modelos basados ​​en texto carecen de esos oídos ni de esa experiencia vital.

La IA del futuro podría necesitar una renovación total de su arquitectura (sistemas híbridos que combinen habilidades lingüísticas estándar con razonamiento fonético) antes de poder competir con los cómicos humanos. Hasta entonces, la capacidad de crear un juego de palabras que provoque quejas sigue siendo una superpotencia exclusivamente humana.