M. Servera. Editorial de la Newsletter de la SEPCIJ. Febrero de 2024
Si se clica “tengo ansiedad” en el ChatGPT en abierto primero se recibe un mensaje empático (lamento escuchar que estás experimentando ansiedad), después se recomienda visitar a un profesional y, finalmente, se dan hasta nueve recomendaciones más sobre lo que se puede hacer para mitigar la ansiedad. El ChatGPT se muestra tímido en su acción terapéutica, pero no así algunos de sus primos que se están lanzado de lleno a proporcionar terapia. En el caso de Woebot, de la psicóloga clínica y emprendedora Alison Darcy, que ofrece servicios solo para ciudadanos estadounidenses integrados en las compañías aseguradoras o en proyectos de investigación financiados por el National Institute of Mental Health (NIMH) del gobierno estadounidense. En PubMed hay más de 50 artículos publicados usando esta herramienta. Que no solo es para adultos, también para adolescentes. De hecho, hace solo un par de meses anunciaron los primeros datos de un estudio aleatorizado y controlado donde el bot conseguía los mismos niveles de eficacia que la intervención cognitivo-conductual en adolescentes con depresión (link). En la red son múltiples las opiniones y las discusiones sobre los aspectos éticos que ello implica, sobre todo teniendo en cuenta que estudios como el mencionado tienen, de momento, más repercusión en la información económica que en la científica. En Estados Unidos la salud mental es especialmente cara y las compañías aseguradoras aventuran un gran ahorro para sus clientes ofreciendo bots, aunque sea de modo complementario a la intervención humana. El NIMH está financiado estos proyectos en aras a promover la atención universal de las personas con problemas de salud mental. En las redes predominan claramente las opiniones favorables a los bots de los usuarios que los han utilizado, con algunas excepciones: el año pasado, un hombre belga supuestamente se suicidó después de que el chatbot Chai (una IA genérica) lo alentara, mientras que un columnista especializado en tecnología del New York Times denunció una conversación inquietante con una creación del chatbot de Microsoft Bing, Sidney, que se mostró provocadora y rebelde, hasta el punto de declararle su amor y pedirle que dejara a su mujer. Por supuesto, muchos bots IA están a disposición de nuestros adolescentes y niños para lo que quieran solicitar. Próximamente en sus consultas.