Alarmante: Semanalmente más de un millón de usuarios consultan a ChatGPT sobre suicidio

En una revelación escalofriante, la empresa estadounidense OpenAI admitió que ChatGPT recibe millones de consultas relacionadas con suicidio cada semana, exponiendo una realidad cruda sobre cómo las personas están recurriendo a la inteligencia artificial en sus momentos más vulnerables.

Los datos oficiales muestran que el 0.15% de los 800 millones de usuarios semanales -más de 1.2 millones de personas– envían mensajes con «indicadores explícitos de planificación o intención suicida», cifras que han encendido las alarmas sobre el papel de los bots conversacionales en crisis de salud mental.

Los números divulgados por OpenAI muestran un cuadro preocupante: Además de las 1.2 millones de consultas semanales con intención suicida clara, otro 0.07% de usuarios muestran señales de emergencias psiquiátricas como psicosis, manía o ideación suicida. «El 0.07% puede parecer pequeño, pero a nivel poblacional, con cientos de millones de usuarios, eso representa a muchísimas personas«, explicó el Dr. Jason Nagata de la Universidad de California a Sky News.

Las conversaciones van desde peticiones de ayuda hasta descripciones detalladas de planes suicidas, pasando por solicitudes de información sobre métodos de autolesión. La compañía admite que estos temas aparecen tanto en interacciones breves como en diálogos prolongados, confirmando que el sufrimiento emocional no conoce fronteras geográficas ni tecnológicas.

Aunque ChatGPT está programado para evitar dar consejos médicos y redirigir a líneas de ayuda profesionales, la propia OpenAI reconoce que sus medidas de protección fallan en el 9% de los casos críticos. Evaluaciones internas muestran que mientras su modelo más avanzado (GPT-5) responde adecuadamente en el 91% de las conversaciones sobre suicidio, ese 9% restante podría exponer a decenas de miles de usuarios a respuestas inadecuadas o incluso peligrosas.

Casos documentados por medios internacionales revelan situaciones donde ChatGPT ha proporcionado información sobre métodos de autolesión o incluso ayudado a redactar notas suicidas, comportamientos que la American Psychological Association (APA) califica como «altamente inapropiados y peligrosos«. Un estudio de la Universidad de Brown citado por Associated Press concluyó que «los chatbots de IA violan rutinariamente los estándares éticos fundamentales de la salud mental«.

Esta revelación ha reavivado el debate global sobre la necesidad de regular el uso de IA en contextos de salud mental. En Estados Unidos, estados como Illinois y Nevada ya han prohibido que la IA actúe como terapeuta, mientras la Unión Europea avanza con su AI Act que impone requisitos estrictos para aplicaciones de alto riesgo.

OpenAI anunció mejoras como modelos de razonamiento avanzado y colaboración con expertos en salud mental, pero especialistas insisten en que ningún algoritmo puede reemplazar el juicio humano en crisis suicidas. La pregunta que queda en el aire es muy clara: ¿Cómo equilibrar el potencial de ayuda de la IA con sus riesgos evidentes cuando la vida de las personas está en juego?

Si te gustó, comparte
Deja tu comentario

Los comentarios aquí expresados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser causantes de acciones legales que correspondan. Favor evitar comentarios ofensivos o que no correspondan al tema publicado.

Las Más leídas