ChatGPT y terapia psicológica: ¿aliado innovador o riesgo para el terapeuta?

Comparte este artículo

En muy poco tiempo, ChatGPT y otros modelos de inteligencia artificial generativa han pasado de ser curiosidades tecnológicas a herramientas que muchos pacientes mencionan en consulta. Algunos los utilizan para “desahogarse”, pedir consejo o buscar ejercicios de regulación emocional. Al mismo tiempo, muchos psicólogos se preguntan:

¿Podemos integrar estas herramientas en la práctica clínica de forma segura y ética, o estamos abriendo una puerta llena de riesgos?

La realidad es compleja: la IA ofrece posibilidades interesantes, pero también límites y peligros que no pueden ignorarse.

¿En qué puede ser un aliado para el psicólogo?

Aunque ChatGPT no es un dispositivo sanitario ni un terapeuta, puede resultar útil en algunas tareas colaterales a la intervención:

1. Apoyo psicoeducativo
El profesional puede utilizar la IA para generar borradores de materiales psicoeducativos (explicaciones sobre ansiedad, depresión, técnicas de respiración, etc.) que luego revisa, corrige y adapta a cada paciente. Esto ahorra tiempo, pero mantiene el control clínico en manos del terapeuta.

2. Organización y productividad clínica
La IA puede ayudar a resumir notas, preparar esquemas de sesión, organizar ideas para informes o supervisión, o proponer ejemplos y metáforas clínicas que el psicólogo decide si usar o no.

3. Apoyo entre sesiones (siempre supervisado)
En contextos muy específicos, algunos profesionales están explorando el uso de chatbots como complemento entre sesiones, por ejemplo para recordar tareas, ofrecer recordatorios de habilidades o guiar pequeñas prácticas de relajación, siempre dentro de un marco claro, informado y limitado.

En todos los casos, la clave es entender que la IA no toma decisiones clínicas, sino que funciona como una herramienta de apoyo bajo supervisión humana.

¿Qué dice la evidencia sobre chatbots y salud mental?

En los últimos años han proliferado estudios sobre chatbots diseñados específicamente para la salud mental. Algunas revisiones y metaanálisis señalan que pueden producir mejoras pequeñas a moderadas en síntomas de ansiedad y depresión a corto plazo, especialmente en intervenciones estructuradas y breves.

Sin embargo, es importante matizar:

  • La mayoría de estos estudios se centran en apps o chatbots clínicos específicos, no en herramientas genéricas como ChatGPT.

  • Muchos trabajos cuentan con muestras pequeñas, periodos de seguimiento cortos y alto riesgo de sesgos.

  • Prácticamente todos los autores subrayan que se trata de complementos, no de sustitutos de la terapia presencial u online realizada por un profesional.

Es decir: hay señales de utilidad, pero no existe evidencia robusta que respalde el uso de ChatGPT como terapia ni como único recurso para problemas de salud mental.

Riesgos y dilemas éticos: dónde se puede torcer el uso

Distintas organizaciones profesionales y grupos de investigación han empezado a alertar sobre los riesgos de usar chatbots genéricos como apoyo emocional principal:

  • No están diseñados para identificar riesgo: un modelo de lenguaje puede no detectar ideación suicida, psicosis o violencia inminente de manera fiable, ni activar recursos de emergencia.

  • Pueden dar respuestas inadecuadas o peligrosas: la IA “alucina” información, inventa referencias o puede validar narrativas dañinas sin el juicio clínico necesario.

  • Generan falsa sensación de seguridad: algunos usuarios perciben al chatbot como “terapeuta disponible 24/7”, lo que puede retrasar la búsqueda de ayuda profesional.

  • Problemas de privacidad y confidencialidad: no todas las plataformas gestionan los datos con criterios comparables a los códigos deontológicos de la psicología.

  • Sesgos y desigualdad: los modelos se entrenan con datos que pueden reproducir estereotipos culturales, de género o raciales.

Varios organismos señalan un principio central: la IA debe complementar, nunca sustituir, el juicio clínico humano.

Buenas prácticas para psicólogos: cómo situarse ante ChatGPT

Para los psicólogos clínicos, más que la pregunta “¿usar o no usar?”, la clave es cómo y para qué:

  1. Mantener el rol central del profesional
    La IA puede ayudar a redactar, organizar o inspirar, pero no decide diagnósticos, no pauta tratamientos ni regula la relación terapéutica.

  2. Transparencia con el paciente
    Si se usa IA para elaborar materiales o recursos, es recomendable informar de manera clara, sin generar la impresión de que “la terapia la hace el chatbot”.

  3. Revisión crítica de los contenidos
    Nunca copiar-pegar sin supervisar. Verificar la evidencia, adaptar el lenguaje clínico y asegurarse de que el mensaje es respetuoso, ético y ajustado al caso.

  4. Cuidar la confidencialidad
    Evitar subir a herramientas externas datos identificables del paciente. Siempre que sea posible, anonimizar y seguir las normativas de protección de datos.

  5. Formarse en ética y regulación de IA
    Las guías sobre IA avanzan rápido. Estar al día es parte de la responsabilidad profesional, igual que en cualquier otra herramienta tecnológica.

Preguntas para tu práctica

  • ¿Tus pacientes te han contado que usan ChatGPT u otros chatbots para hablar de su malestar?

  • ¿Qué límites y posibilidades ves en tu contexto clínico concreto?

  • ¿Cómo te gustaría formarte para decidir con criterio cuándo una herramienta de IA suma y cuándo resta?

La pregunta no es si la IA va a entrar en la psicología, sino cómo queremos que lo haga. Como profesionales, tenemos la oportunidad –y la responsabilidad– de guiar ese proceso con criterio clínico, ética y sentido crítico.

Referencias

Suscríbete a nuestra newsletter

Mantente al día de todo

Más para explorar

¿Quieres pertenecer a la mejor comunidad de Psicólogos?

únete gratis a nuestra colmena