Noticias

Inteligencia Artificial vs psicólogo: Cuando se pone en riesgo la salud mental por usarla como reemplazo

Te presentamos los peligros de reemplazar la psicoterapia con chatbots

La llegada de la Inteligencia Artificial (IA) ha provocado una profunda transformación en diversos campos profesionales, incluyendo la psicología. Si bien la IA ha traído ventajas significativas en áreas como la automatización de tareas y el desarrollo de soluciones innovadoras, su impacto en la salud mental no está exento de riesgos, especialmente cuando se utiliza como sustituto de la psicoterapia tradicional.

Acceso fácil y bajo costo

En redes sociales, se ha generado un debate sobre el uso de chatbots de IA en el ámbito de la salud mental. Muchos usuarios han compartido sus experiencias utilizando herramientas como Claude de Anthropic, Grok de X, Gemini de Google y otros asistentes virtuales, tratándolos como psicólogos. Entre las razones más comunes para recurrir a estos sistemas se encuentran su fácil acceso, la gratuidad de las plataformas y la rapidez para obtener respuestas.

Este fenómeno no se limita a usuarios comunes. El influencer argentino Tomás Mazza reveló, en una reciente entrevista con el streamer español René ZZ, que en lugar de acudir a un profesional para sesiones de psicoterapia, utiliza ChatGPT para “desahogarse”. “Me ayudó muchísimo a nivel emocional. Te escucha y tiene una memoria actualizada. Hay que ser completamente sincero porque nadie te lo va a leer. Tenés que decir lo que te pasa, cómo te sentís, todo lo que tienes en tu cabeza y que te da miedo decir”, confesó Mazza.

A pesar de la gran influencia que tiene en las redes sociales, Mazza no es ajeno a las advertencias de los expertos en salud mental, quienes alertan sobre los peligros de reemplazar la terapia profesional por interacciones con IA. Los psicólogos consultados por METRO ECUADOR aseguran que estos sistemas no están diseñados para ofrecer un tratamiento terapéutico adecuado y pueden dar consejos inapropiados, replicar sesgos y, en muchos casos, almacenar datos sensibles, lo que plantea serias preocupaciones sobre la privacidad y seguridad.

Efecto placebo: Respuestas rápidas pero superficiales

La psicóloga clínica Ana Lucía Carrión explica que hoy en día, las personas buscan respuestas inmediatas cuando se encuentran en situaciones de crisis. El acceso rápido a un chatbot de IA puede parecer una solución, pero el problema es que este tipo de herramientas no ofrece una intervención real. “Cuando están en una situación de riesgo o complicada, desean una respuesta rápida, y la IA se las puede dar”, dice Carrión. Sin embargo, este alivio momentáneo no sustituye la profundidad de una terapia tradicional, que puede llevar más tiempo y requiere de la construcción de un vínculo humano.

La IA no está lista para sustituir la psicoterapia aplicada

El psicólogo clínico David Sucre Villalobos explica que el uso de la IA en la psicología aún está en sus primeras etapas de investigación. “Por ahora, la IA pertenece más al campo de la psicología básica”, señala Sucre, quien explica que la psicología básica estudia el comportamiento y los procesos mentales, mientras que la psicología aplicada se enfoca en resolver problemas utilizando esos conocimientos.

Aunque la IA puede ser una herramienta útil para apoyar la investigación en neurociencias, como en el estudio de la memoria, la atención y las redes neuronales, aún no ha logrado replicar aspectos fundamentales de la psicoterapia, como la empatía y la conexión humana. “Lo que hace la IA es reflejar superficialmente lo que el usuario está sintiendo, como un espejo o un refuerzo narcisista de sus emociones, pero no crea una verdadera conexión terapéutica”, advierte Sucre.

La IA no brinda respuestas de intervención adecuadas

Un aspecto crítico es que los chatbots de IA no están preparados para manejar situaciones de crisis, como la suicidalidad. Sucre plantea un escenario en el que un paciente en crisis pudiera decirle a un chatbot que se siente mal o tiene pensamientos suicidas, y la IA simplemente respondería con un mensaje genérico: “Esa situación es difícil o complicada, entiendo cómo te sientes”. Este tipo de respuesta no ofrece una intervención clara ni concreta para abordar una emergencia, lo que resalta la falta de eficacia de la IA en contextos clínicos.

Ética y confidencialidad: Desafíos de la IA en la psicoterapia

Un tema importante que plantea Sucre es la ética. Mientras que en la psicoterapia humana existen principios fundamentales como la confidencialidad y el respeto al paciente, estos principios no son aplicables a los chatbots de IA. Los algoritmos de la IA se basan en grandes cantidades de datos y patrones, lo que significa que no garantizan la protección total de la información sensible del paciente.

La relación terapéutica: Un elemento clave en el éxito del tratamiento

Por último, tanto Carrión como Sucre coinciden en que el éxito de la psicoterapia depende en gran medida de la relación terapéutica. “Más del 50% del éxito de un tratamiento psicoterapéutico depende de la calidad de la relación entre el terapeuta y el paciente”, explica Sucre. La interacción humana, la empatía y la presencialidad son elementos esenciales en el proceso de sanación, aspectos que no pueden ser replicados por la IA.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último