El tiempo por Tutiempo.net
El tiempo por Tutiempo.net

“Es muy peligroso”: psicóloga advirtió sobre usar ChatGPT como terapia

Cada vez son más las personas que buscan respuestas y apoyo emocional en herramientas como ChatGPT, pero ¿es seguro usar la inteligencia artificial como “terapia”? La psicóloga Vero Marcos advirtió sobre los riesgos de confiar en la IA para buscar ayuda.

Por: Redacción 04 Julio 2025 11:10

La inteligencia artificial, como ChatGPT, se ha convertido en los últimos años en una herramienta popular para resolver dudas, buscar consejos y hasta para desahogarse. Sin embargo, los expertos advierten que usarla como “psicólogo” puede ser riesgoso.

La reconocida psicóloga Vero Marcos habló sobre esto en una entrevista reciente, en donde explicó que cada vez son más las personas, sobre todo adolescentes, quienes usan la inteligencia artificial para hablar de sus problemas emocionales o incluso hasta para “autodiagnosticarse”.

Según la psicóloga, por muy avanzada que sea la tecnología, nunca podrá reemplazar la calidez, el apoyo y la comprensión que puede ofrecer un ser humano.

“ChatGPT nunca podrá superar el corazón, alma y espíritu de una persona. Un humano sí te entiende, te escucha y te aconseja desde la experiencia y los estudios, no solo desde datos y estadísticas”, afirmó.

También señaló que depender de la IA puede ser peligroso, porque sus respuestas se basan en información general y no en un análisis personalizado para cada persona.

“El problema es confiar en un robot. Un ser humano no es solo un número. Hoy vivimos con prisa y queremos todo inmediato, pero esa inmediatez puede afectar nuestra salud emocional”, agregó.

Finalmente, la psicóloga recordó que el idealizar a alguien o algo (como un chatbot) puede aumentar la angustia y la inseguridad.

 


Las Más Leídas