Expertos advierten: uso de IA como ChatGPT para problemas emocionales valida conductas negativas
IA para problemas emocionales valida conductas negativas, advierten

Uso de IA para problemas emocionales genera riesgos en salud mental de jóvenes

En medio del creciente uso de herramientas de inteligencia artificial para resolver dudas cotidianas, ha emergido una tendencia preocupante: la utilización de sistemas como ChatGPT, Claude o Gemini como espacios de desahogo emocional y búsqueda de orientación psicológica. Datos recientes de OpenAI, compañía operadora de ChatGPT, revelan que aproximadamente el 0,07% de los usuarios de esta plataforma presentan riesgos en salud mental, lo que equivale a al menos 560.000 personas a nivel global.

Validación de conductas negativas

Diana Camila Garzón Velandia, profesora de la Facultad de Psicología de la Universidad Católica de Colombia, es enfática al señalar que no es recomendable que las personas jóvenes utilicen herramientas de inteligencia artificial para tratar asuntos personales o emocionales. Según explica, aunque estas plataformas ofrecen respuestas inmediatas y accesibles, carecen de elementos fundamentales presentes en el abordaje psicológico profesional.

"Uno de los principales riesgos identificados es lo que denominamos 'complacencia y validación'", afirmó Garzón Velandia. "En algunos casos, la inteligencia artificial puede llegar a justificar conductas poco adaptativas o poco funcionales para las personas. A diferencia de un psicólogo, que no solo identifica patrones sino que también confronta al paciente cuando es necesario, la IA tiende a evitar ese tipo de intervención crítica".

Banner ancho de Pickt — app de listas de compras colaborativas para Telegram

Falta de regulación ética y manejo de datos

La preocupación se extiende al manejo de información sensible. Mientras los profesionales de la psicología están sujetos a regulaciones éticas y legales estrictas sobre el tratamiento de datos personales, en el caso de la inteligencia artificial no existe una normativa clara en este aspecto. Esto implica que información profundamente personal, incluyendo contenidos delicados o legalmente sensibles, puede ser utilizada para entrenar algoritmos sin criterios éticos sólidos.

Los usuarios comparten información personal sin que exista un juicio adecuado para gestionar esas interacciones, lo que abre la puerta a posibles prácticas poco éticas en la relación entre usuario y sistema automatizado.

Atractivo peligroso para los jóvenes

Pese a estos riesgos documentados, muchos jóvenes continúan recurriendo a la inteligencia artificial como alternativa a la atención psicológica tradicional. Las razones, según la experta, incluyen:

  • Percepción de que estas herramientas "entienden" sin juzgar
  • Facilidad para abrirse sobre cualquier tema sin temor a crítica
  • Accesibilidad inmediata y gratuita en cualquier momento
  • Percepción de la terapia profesional como costosa o difícil de obtener

"Las personas sienten que la IA las entiende y que no las va a juzgar", señaló Garzón Velandia. "Sin embargo, esta aparente ventaja puede convertirse en un problema, ya que la ausencia de cuestionamiento puede derivar en la validación de conductas o pensamientos que requieren revisión profesional".

Limitaciones técnicas y riesgos específicos

Entre los riesgos más relevantes para la salud mental de los jóvenes, la experta destacó la falta de contexto en las recomendaciones generadas por la inteligencia artificial. Muchas estrategias de regulación emocional, aceptación o tolerancia al malestar requieren una evaluación específica y estructurada, que permita adaptar las intervenciones a cada caso particular.

"Al no existir una evaluación estructurada ni una integración adecuada de información objetiva del usuario, las recomendaciones pueden tener vacíos importantes", explicó la académica.

Además, factores como creencias alejadas de la realidad y falta de autocrítica, especialmente en jóvenes cuyas habilidades de metacognición y regulación emocional aún están en desarrollo, pueden no ser reconocidos adecuadamente por estos sistemas automatizados.

Banner post-artículo de Pickt — app de listas de compras colaborativas con ilustración familiar

Necesidad de orientación profesional

Los especialistas coinciden en que, aunque la inteligencia artificial puede ofrecer respuestas inmediatas y aparentemente empáticas, nunca debe sustituir la atención psicológica profesional. La complejidad del proceso terapéutico, que incluye evaluación estructurada, confrontación cuando es necesario y manejo ético de información sensible, no puede ser replicada por algoritmos automatizados.

La accesibilidad de estas herramientas no compensa sus limitaciones fundamentales en el abordaje de problemas emocionales y de salud mental, particularmente en poblaciones jóvenes vulnerables.