La inteligencia artificial ha irrumpido en nuestras vidas como un elefante en una cacharrería. De la noche a la mañana la tenemos en todas partes. Nos facilita la vida en muchos quehaceres, pero también nos aterra en muchas ocasiones por todas las tareas en las que quizás podría sustituirnos. Pero no solo nos podría suplantar como profesionales. También trata de sustituirnos como amigos, familiares o compañeros. Algunas personas, lejos de desahogarse o intercambiar ideas con sus seres queridos, ahora lo hacen directamente con la IA. Es una forma de sentirse acompañados, desde luego, pero también puede acarrear problemas muy graves. No solo nos crea la ilusión de que las interacciones sociales pueden ser unidireccionales. También puede dar consejos peligrosos. Tanto como para que haya ya al menos dos familias que han denunciado a compañías de desarrollo de IA por el suicidio de sus hijos. 

Es el caso de los padres de Sewell Setzer y Adam Raine, dos jóvenes estadounidenses de 14 y 16 años cuyo suicidio podría relacionarse con el uso de IA por distintos motivos. En el caso de Sewell, parece ser que llegó a enamorarse de un chatbot de Character.AI basado en Daenerys Targaryen, de Juego de Tronos. La relación le llevó a una espiral depresiva que terminó en suicidio, según señala su familia.

Adam no se enamoró de ningún algoritmo, pero encontró en la IA el refugio que creyó que le ayudaría a lidiar con un malestar emocional que no solo no mejoró, sino que empeoró con el tiempo. El contacto con la inteligencia artificial le hizo aislarse socialmente, aumentando su desasosiego. Pero, en realidad, la causa de la denuncia no es esa, sino el modo en que el chatbot animó al joven a suicidarse. Sus padres encontraron conversaciones en las que le daba incluso ideas sobre cómo hacerlo. 

Para entender mejor cómo hemos llegado a esto y cuáles pueden ser las soluciones, en Hipertextual nos hemos puesto en contacto con Pablo Rodríguez Coca, más conocido en redes sociales como Occimorons. A través de las viñetas protagonizadas por sus personajes Occi y Morons, este psicólogo general sanitario pone en valor la salud mental y la divulga entre sus más de 195.000 seguidores. En su último libro, Las vidas que construimos cuando todo se derrumba, se centra justamente en el tema del suicidio. Porque la realidad es que, con IA o sin ella, es un tema del que a veces nos cuesta hablar y justamente hablar es la mejor forma de prevenirlo. 

Algo no deja de existir por no mencionarse

La salud mental en general, y el suicidio en particular, son temas bastante tabú hoy en día. Muchas personas se avergüenzan de compartir su malestar con sus seres queridos. Otras veces sí lo hacen, pero nadie nos ha enseñado a gestionar el malestar de nuestros amigos y familiares, especialmente cuando es un malestar acompañado de ideas suicidas. Por eso, ambas partes a veces prefieren optar por el silencio. Si no se menciona, no existe, pero eso no es cierto.

amigosamigos
Preguntar directamente no provoca ideas suicidas. Crédito: Freepik

Preguntar directamente no provoca ideas suicidas, al contrario, disminuye el riesgo porque la persona siente que puede hablar de algo que hasta ese momento era innombrable”, explica Rodríguez Coca. “La intensidad emocional baja cuando ofrecemos un espacio donde hablar directamente de ese malestar que le provoca tanto sufrimiento”. Es algo de lo que este psicólogo habla también en su anterior libro, Durante la tormenta, centrado en el acompañamiento en salud mental. Es un acompañamiento esencial, pero a veces puede resultar complicado. No sabemos cómo actuar para hacer las cosas bien. Por ejemplo, si alguien se abre con nosotros, ¿cómo debemos enfrentar la situación?

“Lo importante no es solo la pregunta, sino el modo en que se formula y nuestro estado emocional”, relata Occimorons. “Es interesante hacer este tipo de preguntas desde la presencia calmada y una escucha real y no desde el miedo o la urgencia”.

En este sentido, hace referencia a una escalera de preguntas de menor a mayor intensidad. Estos son algunos ejemplos citados por él.

  • Primer escalón:
    • “Te noto diferente últimamente, ¿estás pasando por un momento difícil?”
    • “¿Todo va bien? Ya sabes que aquí estoy para lo que necesites”
    • “Cada vez te apetece hacer menos cosas conmigo, ya apenas sales… ¿va todo bien?
  • Segundo escalón:
    • “¿Sientes que no puedes más o que nada tiene sentido?”
    • “¿Has pensado que la vida no merece la pena?”
  • Tercer escalón:
    • “¿Has pensado en hacerte daño o en morir?”
    • “¿Has pensado en suicidarte?”
  • Cuarto escalón, si la respuesta es afirmativa:
    • “¿Has pensado cómo lo harías?”
    • “¿Tienes acceso a lo que podrías usar para hacerte daño (medicamentos, armas, cuerdas, etc.)?”

Pueden parecer preguntas duras, sobre todo en los últimos escalones. Pero, lejos de lo que podríamos llegar a pensar, no van a dar ideas nuevas a esta persona ni empeorarán su situación. Se sentirá acompañada, comprenderá que es algo de lo que puede hablar y, además, podremos evaluar el nivel de riesgo sin tener que recurrir a suposiciones.

Con la IA ocurre todo lo contrario

A veces, las personas con un malestar emocional muy intenso o incluso con pensamientos suicidas pueden recurrir a la IA para desahogarse porque piensan que molestarían con ello a sus seres queridos de carne y hueso. Cuando lo hacen, la IA les dice lo que quieren oír. Está programada para ello. No hace las preguntas anteriores, ni evalúa el riesgo, ni tampoco acompaña. Su papel es darnos aquello que le pedimos y si se piden consejos sobre suicidio, es muy posible que los dé. Ese es uno de sus mayores riesgos. Además, incluso si no hay referencias directas al suicidio, la IA no puede detectar el riesgo. Un ser humano con la debida información sí podría hacerlo.

¿Cuál es esa información que nos ayuda a deducir el riesgo de suicidio?

A veces, cuando una persona se suicida, las personas que la rodeaban se muestran sorprendidas porque no parecía “triste”. Iba a trabajar o a clase, salía con sus amigos, hacía deporte… El malestar estaba dentro, pero aparentemente no lo exteriorizaba. Es algo muy habitual. De hecho, el título del último libro de Rodríguez Coca se basa en eso. Las vidas que construimos cuando todo se derrumba. Vidas aparentemente estables que por dentro se tambalean. “El problema es que hemos convertido el estar bien en una especie de obligación, y eso hace que muchas personas vivan su sufrimiento en silencio por miedo a decepcionar o a ser vistas como débiles”.

A pesar de esa falsa sensación de que todo va bien, en algunas ocasiones hay signos ante los que podemos estar alerta. Pablo Rodríguez Coca nos ha contado algunos de ellos.

“A veces, hay señales sutiles: comentarios de desesperanza (no puedo más, esto no tiene sentido), cambios bruscos de comportamiento, regalar objetos significativos, aislarse, o mostrar una calma repentina tras un periodo de angustia. Pero es importante mencionar que no siempre existen estas señales o no son tan claras como pensamos. Por eso decimos que el suicidio puede prevenirse, pero no predecirse. Lo importante es no esperar a tener la certeza de que esa persona está sufriendo o a que haya esas señales claras de que lo está pasando mal. Si algo nos preocupa, está bien generar ese espacio seguro donde poder preguntar si las cosas van bien”.

Todo esto no lo hace la IA. E incluso si lo hacemos nosotros puede que a la primera no haya una respuesta. No obstante, debemos mostrar nuestra disponibilidad a esa persona para que se abra con nosotros cuando lo necesite. “Al final, es la propia persona quien decide con quién compartirlo y el momento de hacerlo”.

Uno de los grandes riesgos de la IA también es una de sus principales fortalezas. Está disponible siempre que tengamos conexión a internet y nos da respuestas inmediatas. Esto, al menos en lo que a salud mental se refiere, puede ser un problema. Dada la escasez de recursos de los que dispone la sanidad pública no es raro que muchas personas prefieran desahogarse con el algoritmo. Por eso, si queremos prevenir esos casos de suicidio que se han ido relacionando con la IA, el primer paso es dirigir más recursos a la sanidad pública en materia de salud mental.

“Se necesitan más psicólogos clínicos, más profesionales en atención primaria formados en detección temprana, y menos listas de espera”, recuerda Rodríguez Coca. “También hacen falta protocolos claros de prevención y coordinación entre salud, educación y servicios sociales, además de campañas públicas que ayuden a romper el estigma y enseñen a la población cómo actuar ante señales de alarma”.

Ya hemos visto que la IA no sabe detectar el riesgo ni acompañar a quien lo necesita. Los humanos podemos aprenderlo, pero necesitamos que nos lo enseñen.  “Por eso hablamos de que los suicidios son un problema de salud pública, porque de esta manera reconocemos que no basta con que la persona pida ayuda, sino que la sociedad, las instituciones y el sistema sanitario deben tener los recursos necesarios y estar preparados para ofrecer dicha ayuda”.

terapia psicológicaterapia psicológica
Se necesitan más psicólogos en la seguridad social. Crédito: Freepik

¿Podemos culpar a la IA de un suicidio?

El suicidio suele ser una cuestión multifactorial. De hecho, Occimorons nos recuerda que no siempre está relacionado directamente con un problema de salud mental.

 “El suicidio es un fenómeno multicausal y complejo, donde influyen muchos factores: sociales, económicos, relacionales, biográficos, existenciales… No siempre hay un diagnóstico clínico detrás. A veces lo que hay es un profundo sentimiento de desesperanza, de pérdida de sentido, de soledad o de falta de recursos para afrontar un sufrimiento que en ese momento se percibe como insoportable. Quien se quita la vida no quiere dejar de vivir, quiere dejar de sufrir”.

¿Podemos entonces culpar a la IA directamente del suicidio de una persona? “Es cierto que la conducta suicida no se puede explicar por un solo factor, pero sí puede ser que, tras reforzar los pensamientos suicidas de una persona que esté en crisis, esto se convierta en un detonante que acabe accionando el acto suicida”. Por eso, si bien la IA puede ser una herramienta muy útil para muchos fines, se debe prestar atención al uso que algunas personas hacen de ella. 

En el caso de niños y adolescentes, no se trata de prohibir, pero sí de acompañar. Es bueno que los padres se interesen sobre el uso que están dando sus hijos a la IA, sin una actitud autoritaria, sino más bien de curiosidad y apoyo. Aunque, por supuesto, las propias compañías que desarrollan las IA son las primeras que deben trabajar para evitar este tipo de problemas. “Es fundamental que las plataformas asuman responsabilidad ética y que los usuarios sepan que la IA no es un sustituto de la ayuda profesional”.

En resumen…

Vivimos en un mundo interconectado en el que podemos chatear con alguien al otro lado del mundo, tener a golpe de clic una muestra de las vacaciones de todos nuestros amigos o iniciar mil conversaciones a la vez y, sin embargo, seguimos sintiéndonos solos. Las tecnologías tienen muchas virtudes, pero también carencias que no se solventarán por mucho que evolucionen. Por eso debemos seguir trabajando para que la sociedad no se deshumanice a medida que la tecnología cala en ella. Porque solo serán los seres humanos, sobre todo los que más nos quieren, los que tendrán la palabra adecuada, la mano tendida o el hombro en el que llorar cuando más los necesitemos. Eso es algo que jamás podrá combatir la inteligencia artificial.

Si este artículo te ha causado malestar o pensamientos en relación con el suicidio, no dudes en pedir ayuda. En España tienes la línea 024 a tu disposición. Hay salida. 



Ver fuente