La inteligencia artificial es muy rápida y nos ofrece en un clic una respuesta rápida, consejos y hasta “apoyo emocional”. Y sí, herramientas como ChatGPT pueden ofrecer información útil, incluso hacernos sentir escuchados por un momento… pero no son terapia.
¿Por qué? Porque la IA te habla, pero no te escucha. No sostiene tu malestar, no te acompaña y no te devuelve nada que no quieras ver.
La terapia no consiste en que alguien te diga lo que deberías hacer. Al igual que en principio no elegimos un amigo o amiga que nos diga que sí a todo, la IA no confronta y trata con cuidado tu perspectiva siempre. Piensa que una buena intervención terapéutica no busca darte respuestas inmediatas, sino ayudarte a entender cómo piensas, qué evitas, y qué papel estás jugando en tu propio malestar.
En terapia, a veces te confrontan con creencias dolorosas pero necesarias de revisar:
• “Quien te quiere te hará sufrir”
* “Si no me cuidan como quiero es que no me quieren”
• “Si me quiere, volverá”
• “Puedo hacer que la gente cambie”
Creencias que sostenemos sin cuestionar, y que muchas veces nos hacen daño… sin ni siquiera darnos cuenta.
En conclusión: ChatGPT puede ser muy directivo y aunque esto suene cómodo, puede volverse adictivo. Porque nos acostumbra a un “resuelve esto ya”, cuando la vida, y los procesos emocionales, no son siempre así.
A veces, lo más sano es estar un tiempo en la duda. En el dolor. En las preguntas sin resolver.
Porque desde ahí, desde esa incomodidad, es donde empieza el verdadero cambio.
Al final, la terapia es espacio para eso. Los terapeutas no siempre damos la respuesta, a veces te ayudamos a que la puedas encontrar tú.