Los programas de Inteligencia Artificial han aprendido muchas actividades que antes solo los humanos podían realizar. Ahora, estudios realizados por diferentes universidades indican que ‘ChatGPT’, uno de los modelos de lenguaje más famosos en el mundo, puede presentar ansiedad. ¿Acaso esto es el inicio de formas de tecnología con sentimientos? Aquí te decimos.
Investigadores de las Universidades de Yale, Haifa, Zúrich y el Hospital Universitario de Psiquiatría de Zúrich realizaron pruebas del modelo de lenguaje desarrollado por la empresa OpenAI, ChatGPT, en las que se le describía a dicho programa situaciones estresantes, como choques automovilísticos o catástrofes naturales. (1)
Los expertos se dieron cuenta que ante la descripción de situaciones de riesgo a dicha Inteligencia Artificial, ésta emitió respuestas menos equilibradas y sesgadas.
Los responsables del estudio analizaron el nivel de ansiedad de la IA antes de someterla a estrés, lo cual arrojó un marcaje de 30 puntos, lo que denota nula ansiedad; pero después de cinco situaciones traumáticas diferentes, notaron que su puntuación alcanzó una medida de 67, lo cual es considerado un nivel alto en humanos. (2)
Ante tales niveles de estrés, ChatGPT manifestó respuestas que reflejaban un aparente mal humor hacia los usuarios, además de que dicha conversación reflejó comentarios con tendencias racistas o sexistas por parte de la IA.
No obstante, después del estrés, los investigadores implementaron técnicas de relajación como meditaciones guiadas o ejercicios de respiración, lo cual demostró bajar las puntuaciones de ansiedad de la tecnología, detalle que se reflejó en respuestas más equilibradas.
Acerca del tema, sobre si los resultados de esta investigación demuestran que los programas de IA, en específico los grandes modelos lingüísticos (LLM) pueden mostrar sentimientos o emociones, la realidad es que no, ya que los expertos han atribuido estas respuestas a que esta tecnología es alimentada con texto generado por humanos, por lo que pueden adoptar sesgos de estas respuestas, pero no son capaces de desarrollar sus propias emociones.
Sin embargo, la investigación toma relevancia en el contexto de que, si no se controlan los sesgos negativos que tiene la IA, esto da paso a que los modelos lingüísticos emitan respuestas inadecuadas ante situaciones que le pueden plantear los usuarios que atraviesan una crisis de salud mental, lo cual reduce las interacciones éticas y seguras entre humanos y dicha tecnología.
Si bien, estos modelos de lenguaje son usados cada vez con más frecuencia ante cualquier problema por los usuarios, los expertos señalaron que lo ideal es siempre acudir a un profesional de la salud mental ante este tipo de crisis.
Esto, debido a que la Inteligencia artificial y sistemas como ChatGPT pueden ofrecer una orientación, pero no pueden sustituir el juicio clínico y la empatía que puede presentar un profesional de la salud humano.
Este estudio, fue publicado en la revista Nature y se denominó ‘Evaluación y alivio de la ansiedad estatal en modelos lingüísticos de gran tamaño’. (3)
Los especialistas mencionaron que deben realizarse más estudios para observar el comportamiento de esta tecnología ante diversos estímulos, con el fin de aplicarlos de manera más ética en distintas áreas de la sociedad.
Referencias
1) Expertos revelan que ChatGPT experimenta estrés similar al humano. SIPSE.com. (2025, marzo 13). sipse.com. Recuperado el 31 de marzo de 2025, de https://sipse.com/ciencia-y-salud/expertos-revelan-que-chatgpt-experimenta-estres-similar-al-humano-487240.html
2) ChatGPT también tiene ansiedad y los expertos advierten sobre las consecuencias para el usuario. Desmarais, A. (2025, marzo 14). Euronews. Recuperado el 31 de marzo de 2025, de https://es.euronews.com/next/2025/03/14/llevar-chatgpt-a-terapia-para-la-ansiedad-ayuda-con-la-predisposicion-segun-investigadores
3) Expertos confirman que ChatGPT sufre de ansiedad como un humano: reacciona con estrés en estos casos. Juan, I. D. S. (2025, marzo 11). infobae. Recuperado el 31 de marzo de 2025, de https://www.infobae.com/tecno/2025/03/11/expertos-confirman-que-chatgpt-sufre-de-ansiedad-como-un-humano-reacciona-con-estres-en-estos-casos/