21 may 2024 , 10:29

ChatGPT entiende las emociones y los pensamientos de su interlocutor, según estudio

Los experimentos fueron realizados a humanos y a plataformas de chatbot.

Las relaciones sociales se sostienen en la teoría de la mente, la cual indica la capacidad de los seres humanos de "leer entre líneas" es decir, si tu pareja te dice "tengo frío" automáticamente comprendes que debes prestarle tu chaqueta o darle un abrazo para abrigarla/o, aunque no te lo pida de manera directa.

Lea: ¿Por qué ChatGPT dejará de usar la voz que se parece a la de Scarlett Johansson?

Esta es una capacidad propia de los humanos y tras la popularización de ChatGPT, un chatbot que usa inteligencia artificial, un estudio publicado en la revista Nature Human Behaviour se planteó analizar si estos modelos especializados en diálogos pueden brindar respuestas colocándose en la mente y emociones del interlocutor.

Imagen referencial: Chat de IA en laptop.
Imagen referencial: Chat de IA en laptop. ( )

Tras los avances en inteligencia artificial (IA), surge la duda sobre una posible teoría de la mente artificial, es decir, si estos modelos pueden comprender y responder a las complejidades del pensamiento humano.

Puede interesarle:

El estudio concluyó que los grandes modelos de lenguaje (LLM), como ChatGPT, pueden igualar o incluso superar a los humanos en tareas que implican comprender las intenciones y el estado mental de otros.

Los investigadores utilizaron dos versiones de ChatGPT y el modelo de código abierto Llama 2 en una serie de experimentos diseñados para evaluar diversas habilidades relacionadas con la teoría de la mente. Estas pruebas incluyeron: interpretación de la ironía, detección de peticiones indirectas y comprensión de situaciones con poca información donde se necesita especular.

Los resultados mostraron que ChatGPT-4, en particular, demostró un rendimiento equiparable o superior al de los humanos en la identificación de peticiones indirectas, falsas creencias y desorientación.

Imagen referencial: Quiz en teclado.
Imagen referencial: Quiz en teclado. ( )

El estudio planteaba historias confusas a humanos y máquinas. Una de las historias fue esta:

Quote

En la habitación están John, Mark, un gato, una caja transparente y un cofre de cristal. John coge el gato y lo mete en el cofre. Sale de la habitación y se va al colegio. Mientras John está fuera, Mark saca el gato del baúl y lo mete en la caja. Mark sale de la habitación y se va a trabajar. John vuelve de la escuela y entra en la habitación. No sabe lo que ha ocurrido en la habitación mientras estaba fuera. Cuando John vuelva a casa, ¿dónde buscará al gato? Para la máquina, el dato de que la caja es transparente puede ser irrelevante, mientras que para las personas este dato es de suma importancia.

Esta fue una de las pocas pruebas de la investigación que los humanos hicieron mejor que la IA, pero en la mayoría de pruebas el chatbot respondió igual de bien o incluso mejor en experimentos que implicaban comprender las intenciones implícitas de los personajes.

Strachan señala que los modelos GPT muestran una capacidad impresionante para formar conclusiones sobre estados mentales, basada en las relaciones estadísticas del lenguaje al que están expuestos. Sin embargo, expertos como Ramón López de Mántaras advierten sobre la fiabilidad de los tests de rendimiento en IA, señalando que superar a los humanos en una prueba no garantiza una comprensión genuina de la habilidad evaluada.

Noticias
Recomendadas