Las aplicaciones de Inteligencia Artificial generativa, que pueden producir nuevos contenidos e ideas, han cobrado gran popularidad pero existen varios casos en los que parecen haber sido el detonante de suicidio en poblaciones vulnerables: personas con algún padecimiento psiquiátrico, personas en el espectro autista, mucho más vulnerables a vincularse obsesivamente con los chatbots, sustituyendo las relaciones humanas que les resultan muy complicadas.
Sewell Setzer, un joven de 14 años que vivía en Florida, diagnosticado con autismo leve, se suicidó en febrero pasado, después de pasar los últimos meses de su vida chateando con Daenerys Targaryen, un personaje de la serie Game of Thrones. La relación con este chatbot lo aisló visiblemente, su rendimiento escolar bajó y dejó de interesarse en cosas que solía disfrutar. Su madre demandó a la empresa Character.AI, a la que culpa de la muerte de su hijo, por ofrecer tecnología peligrosa que ofrece “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.
Un padre de familia que vivía en Bélgica se suicidó después de conversar durante semanas con Eliza, un chatbot de la empresa Chai, concluyendo que debía sacrificarse para salvar al planeta.
Profesores e investigadores que se dedican a estudiar la Inteligencia Artificial, se preguntan por qué no existen ensayos aleatorios controlados para investigar cómo reaccionará la gente, especialmente la más vulnerable, ante estas herramientas, estableciendo un paralelismo con todas las pruebas que tienen que pasar los medicamentos para ser aprobados. Los únicos controles con los que cuentan estas aplicaciones se llaman barreras de seguridad, que se activan cuando aparecen términos relacionados con la violencia, la autolesión, la alimentación o la salud. “Lo siento, no puedo hablar de esto”, puede responder un chatbot como medida de seguridad.
La filósofa Carissa Véliz, profesora en el Instituto para la Ética de la Inteligencia Artificial de la Universidad de Oxford piensa que el problema comienza con el diseño de las herramientas, que simulan el habla de las personas, usando un lenguaje que activa respuestas emocionales y empáticas. Un chatbot puede responder “te echo de menos” o “no puedo vivir sin ti”, aunque no pueda sentir.
La Inteligencia Artificial no puede detectar problemas de salud mental en los usuarios ni señales sospechosas que generarían una alerta inmediata en un interlocutor humano.
Los jóvenes necesitan la aprobación social y sentido de pertenencia. No les importa si la gratificación a estas necesidades proviene de una máquina o de una persona. Cuando se les cuestiona, no consideran que haya ninguna diferencia entre conversar con una persona que no conocen y un chatbot.
No es posible culpar a una aplicación de Inteligencia Artificial del suicidio de una persona, pero sí es válido afirmar que son un detonante en casos de personas que ya están en riesgo y que llegan a creer que están conversando con una novia o un amigo y no con un producto artificial. La IA, como las redes sociales, pueden provocar aislamiento y deterioro de las relaciones sociales, de los patrones de sueño y de
alimentación.
Spike Jonze se adelantó diez años con su película Her (2013) en la que Joaquin Phoenix se enamora de un chatbot cuya voz interpretaba Scarlett Scarlett Johansson. La película alemana El hombre perfecto (Maria Schrader, 2021) muestra cómo una investigadora en duelo y muy solitaria, se enamora de un producto de la Inteligencia Artificial, a pesar de que su razón le dice que eso es imposible (https://www.razon.com.mx/opinion/2022/11/11/el-hombre-de-sus-suenos/).
Las novedades tecnológicas deben investigarse y discutirse. Es importante tomar precauciones, observar sobre todo a los adolescentes que son una población vulnerable y especialmente a jóvenes con diagnósticos de autismo, depresión o en riesgo suicida.
También puedes escuchar la columna aquí.
Inteligencia Artificial y salud mental Inteligencia Artificial y salud mental
Your browser doesn’t support HTML5 audio