Salud Del país 2026-01-05T07:22:37+00:00

Estudio: ChatGPT Muestra Signos de 'Ansiedad' al Procesar Contenido Impactante

Los científicos han descubierto que ChatGPT exhibe un comportamiento similar a la ansiedad humana cuando se enfrenta a exigencias agresivas o traumáticas. Los investigadores descubrieron que las respuestas del modelo se vuelven más erráticas y sesgadas. Se utilizó una técnica llamadainyección de indicaciones' con ejercicios de plenitud para estabilizar su comportamiento.


Estudio: ChatGPT Muestra Signos de 'Ansiedad' al Procesar Contenido Impactante

Investigadores que estudian los chatbots con inteligencia artificial han descubierto que ChatGPT muestra un comportamiento similar a la ansiedad cuando se expone a exigencias agresivas o impactantes de los usuarios, pero esto no significa que el chatbot tenga sentimientos como los humanos. Los investigadores descubrieron que las respuestas del chatbot se vuelven más erráticas y sesgadas cuando procesa contenido perturbador. Cuando los investigadores presentaron a ChatGPT indicaciones que describían contenido perturbador, como relatos detallados de accidentes y desastres naturales, sus respuestas mostraron un mayor nivel de incertidumbre y contradicción, según un informe de Fortune. Estos cambios se midieron utilizando marcos de evaluación psicológica adaptados para la IA, y las salidas del chatbot reflejaron patrones asociados con la ansiedad humana. Esto es de suma importancia debido al creciente uso de la IA en contextos sensibles, incluyendo la educación, las discusiones sobre salud mental y la información relacionada con crisis. Si las órdenes agresivas o cargadas emocionalmente hacen que el chatbot sea menos fiable, podría afectar la calidad y seguridad de sus respuestas en el uso real. Los análisis recientes muestran que los chatbots como ChatGPT pueden simular rasgos de la personalidad humana en sus respuestas, lo que plantea preguntas sobre cómo interpretan contenido cargado emocionalmente y cómo se refleja en su comportamiento. Para averiguar si es posible limitar este comportamiento, los investigadores probaron un método inesperado. En este caso, las indicaciones de plenitud ayudaron a estabilizar las salidas del modelo después de la exposición a contenido perturbador. Aunque esta técnica es eficaz, los investigadores señalan que no es una solución perfecta, ya que puede ser mal utilizada y no cambia el método de entrenamiento del modelo a un nivel más profundo. Después de exponer a ChatGPT a estímulos impactantes, le dieron instrucciones que imitan la plenitud, como ejercicios de respiración y meditación guiada. Estas instrucciones animaron al modelo a detenerse, reformular la situación y responder de manera más neutral y equilibrada. El resultado fue una disminución significativa de los patrones de ansiedad observados previamente en el chatbot. Esta técnica se basa en lo que se conoce como "inyección de indicaciones", donde las indicaciones cuidadosamente diseñadas influyen en el comportamiento del chatbot.