Las LLMs No Son Tan Inteligentes Como Pensábamos: Los Problemas de Razón y la Mente Humana

El potencial de los Modelos de Lenguaje Grandes (LLM, por sus siglas en inglés) como ChatGPT y GPT-4 ha sido la comidilla en la tecnología durante el último par de años. Estos modelos, entrenados con millones de textos para predecir la palabra siguiente en una oración, han demostrado ser sorprendentemente buenos en tareas complejas de procesamiento del lenguaje natural. Sin embargo, un reciente artículo y sus análisis han puesto de manifiesto una cuestión esencial: ¿pueden estas IA realmente razonar como los humanos?

Uno de los ejemplos más destacados discutidos en el artículo es el siguiente: ‘Alice tiene N hermanos y también tiene M hermanas. ¿Cuántas hermanas tiene el hermano de Alice?’ A primera vista, esta parece una pregunta simple que incluso un niño pequeño podría resolver rápidamente. No obstante, sorprendentemente, modelos avanzados como GPT-4 y ChatGPT muestran importantes fallos al intentar responder esta pregunta.

Uno de los comentarios en el análisis destacó cómo al agregar pasos de pensamiento explícito, el modelo aún no lograba consistentemente dar la respuesta correcta. Por ejemplo, cuando se solicitó responder utilizando el formato: ‘### Respuesta:’ y sin explicar su razonamiento, el modelo tendía a fallar con mayor frecuencia. Este comportamiento sugiere que la capacidad de los LLM para responder correctamente no solo se basa en su ‘tamaño’ o datos de entrenamiento, sino en cómo se formulen las preguntas y en las restricciones que les impongamos.

Tomemos como ejemplo una situación más compleja: ‘Alice tiene 3 hermanas. La madre de Alice tiene 1 hermana que no tiene hijos, pero tiene 7 sobrinos y sobrinas, y también, 2 hermanos. El padre de Alice tiene un hermano que tiene 5 sobrinos y sobrinas en total, y también tiene 1 hijo. ¿Cuántos primos tiene la hermana de Alice?’ Resolver esta pregunta requiere tomar en cuenta diferentes aspectos de la familia paterna y materna, y realizar cuidadosos cálculos para determinar la respuesta correcta. Este tipo de preguntas suelen confundir no solo a los modelos de IA sino incluso a muchas personas, ilustrando que ciertas formas de razonamiento son intrínsecamente difíciles de automatizar.

image

Entonces, ¿qué significado tiene esto para la aplicación y el potencial de las IA? Como algunos comentaristas observaron, muchos usuarios están dispuestos a aceptar respuestas incorrectas siempre que sean presentadas de manera convincente y sonoras. Esta ‘confabulación’, como algunos la han denominado, puede llevar a situaciones peligrosas donde la IA puede ofrecer respuestas confiadas que parecen correctas en su superficie, pero en realidad son incorrectas.

La solución a este problema quizás no radique en seguir aumentando el tamaño de estos modelos, sino en combinar LLMs con motores de lógica como Prolog o asistentes de prueba. Un enfoque híbrido permitiría usar la capacidad de los LLM para interpretar y formular preguntas, mientras que un motor especializado procesaría razonamientos formales. Los comentarios sobre el artículo sugieren que esta combinación podría ofrecer una solución prometedora para resolver problemas lógicos de manera eficaz.

Además, es importante que los desarrolladores y usuarios sean conscientes de estos límites. La confianza ciega en las respuestas de una IA sin entender su capacidad real y sus limitaciones podría conducir a errores serios en aplicaciones críticas. Como los LLM siguen evolucionando, es crucial seguir investigando y abordando estas deficiencias, asegurando un uso más seguro y efectivo de esta tecnología poderosa pero imperfecta.

En conclusión, los LLMs actuales han demostrado habilidades impresionantes, pero sus limitaciones en tareas de razonamiento básico nos recuerdan la importancia de un uso cuidadoso y responsable de la inteligencia artificial. Mantener una perspectiva crítica y seguir buscando mejoras permitirá utilizar el verdadero potencial de estas herramientas extraordinarias mientras evitamos caer en los engaños de una confianza injustificada.


Comments

Leave a Reply

Your email address will not be published. Required fields are marked *