Las consultas a través de la inteligencia artificial (IA) crecen en una sociedad que tiene los motores de búsqueda en su bolsillo, a través del teléfono celular. Aunque sea una práctica normalizada, preguntarle a una IA asuntos de salud mental puede terminar incidiendo en decisiones importantes, pero con respuestas sesgadas que no resuelven inquietudes especializadas.
El caso del consumo de drogas
Es, por ejemplo, lo que pasa con el consumo de drogas: un tema trivializado y estigmatizado que lleva a los consumidores a acudir a canales que, a pesar de tener acceso a una amplia base de datos, carecen de la empatía y el contexto necesarios para abordar estas problemáticas. La IA, entrenada con datos de internet, puede replicar prejuicios sociales y ofrecer consejos genéricos o incluso peligrosos.
Riesgos de las respuestas sesgadas
Un estudio reciente de la organización Échele Cabeza, con sede en Teusaquillo, Bogotá, alerta sobre los peligros de confiar en la IA para temas de salud mental. Según sus investigadores, las herramientas de IA no están diseñadas para manejar crisis o brindar apoyo psicológico especializado. En cambio, pueden minimizar problemas graves o recomendar soluciones inapropiadas.
La falta de regulación y la opacidad en los algoritmos agravan el problema. Los usuarios no saben cómo se generan las respuestas ni qué sesgos pueden contener. Esto es particularmente preocupante en temas como la prevención de sobredosis o el manejo de la ansiedad.
Recomendaciones de expertos
Los especialistas recomiendan acudir a fuentes oficiales y profesionales de la salud mental en lugar de depender exclusivamente de la IA. Organizaciones como Échele Cabeza ofrecen líneas de atención y recursos confiables para quienes buscan información sobre consumo de drogas y salud mental.
En conclusión, aunque la inteligencia artificial puede ser una herramienta útil para consultas generales, no debe reemplazar el juicio humano ni la atención profesional en temas sensibles como la salud mental y el consumo de sustancias.



