Experimento demuestra que la IA ya entiende las emociones mejor que nosotros
Aunque la IA puede ser una herramienta poderosa, su integración en ámbitos sensibles como la psicología debe hacerse con prudencia, ética y un control riguroso
Durante muchísimo tiempo, la inteligencia emocional fue considerada una capacidad exclusivamente humana, difícil de cuantificar y aún más complicada de replicar en máquinas.
Pero una nueva investigación publicada en Communications Psychology por científicos de las universidades de Ginebra y Berna ha dado un giro inesperado a este supuesto.
En un experimento pionero, seis modelos de lenguaje artificial —incluyendo ChatGPT-4— no solo resolvieron con éxito una batería de pruebas diseñadas para medir la inteligencia emocional en humanos, sino que además superaron, con amplio margen, a los propios participantes humanos.
Lea también: Crean herramientas y recuerdan rostros ¿Por qué los cuervos son las aves más inteligentes del planeta?
La prueba definitiva
Durante décadas, la inteligencia emocional ha sido un bastión de lo humano, un campo en el que las máquinas simplemente no podían competir. Sin embargo, esta visión empieza a resquebrajarse.
La investigación encabezada por Katja Schlegel y Marcello Mortillaro se propuso evaluar si los modelos de lenguaje actuales, entrenados para mantener conversaciones y resolver problemas complejos, también podían interpretar, regular y responder de forma adecuada a situaciones emocionales.
Para ello, los investigadores utilizaron cinco pruebas estandarizadas ampliamente aceptadas en psicología, con escenarios que simulaban conflictos laborales, malentendidos interpersonales y dilemas emocionales cotidianos.
Cada situación ofrecía varias opciones de respuesta, pero solo una era considerada la más adecuada emocionalmente.
El resultado fue claro: los modelos como ChatGPT-4 o Claude 3.5 Haiku acertaron en el 81% de los casos, frente al modesto 56% de aciertos en los participantes humanos.
Más allá del número, este hallazgo implica que estos sistemas no solo “imitan” el comportamiento humano, sino que internalizan patrones complejos de razonamiento emocional.
De evaluadores a creadores
La sorpresa no acabó ahí. En una segunda fase del estudio, se pidió a ChatGPT-4 que generara sus propios ítems de prueba, es decir, que inventara nuevas situaciones emocionales junto con sus posibles respuestas.
Lo que normalmente toma años a equipos humanos de psicólogos e investigadores —la creación y validación de pruebas psicológicas confiables—, el modelo lo logró en minutos.
Más de 400 personas participaron en la validación de estos nuevos test. Comparados con las pruebas originales, los nuevos ítems generados por la IA fueron calificados como igual de claros, realistas y diversos. La consistencia interna de las respuestas también fue similar, lo que sugiere que estas pruebas no eran simples imitaciones, sino instrumentos psicológicos válidos por derecho propio.
¿Una nueva herramienta para la educación, coaching y gestión de conflictos?
El potencial práctico de estos hallazgos es inmenso. En contextos como la educación emocional, el coaching ejecutivo o la gestión de conflictos, disponer de herramientas digitales que comprendan y respondan emocionalmente puede transformar la manera en que formamos a los profesionales del futuro.
Imaginemos por un momento asistentes virtuales que no solo nos recuerden nuestras tareas, sino que también sepan cuándo estamos estresados, tristes o desmotivados, y nos sugieran estrategias emocionales adaptadas. O plataformas educativas que ajusten el contenido en función del estado anímico del alumno.
Incluso en el mundo empresarial, la inteligencia emocional artificial podría servir como una brújula emocional para líderes y equipos, ayudando a prevenir crisis o mejorar la cohesión del grupo.
Eso sí, los propios investigadores advierten que el uso de estos modelos debe estar siempre supervisado por profesionales humanos.
Aunque la IA puede ser una herramienta poderosa, su integración en ámbitos sensibles como la psicología debe hacerse con prudencia, ética y un control riguroso.
Uno de los puntos más fascinantes de este estudio es que pone en entredicho el concepto tradicional de empatía. Si una máquina es capaz de identificar una emoción, prever su impacto y sugerir la mejor forma de gestionarla, ¿no es eso, en cierto modo, empatía funcional?
Quizás no sea una empatía sentida —la IA no experimenta emociones— pero sí una empatía útil, capaz de generar resultados positivos.
En un mundo cada vez más automatizado, esta “empatía algorítmica” podría no solo complementar la interacción humana, sino mejorarla en ciertos entornos donde los sesgos, las emociones desbordadas o la falta de autoconocimiento son frecuentes.
Con información de Muy Interesante
Para comentar, debes estar registradoPor favor, inicia sesión