OpenAI anuncia cambios en ChatGPT tras denuncia de una familia por el suicidio de un menor

La herramienta de inteligencia artificial ChatGPT anuncia que tendrá cambios considerables respecto a su política de entrega de información sobre suicidios y otros temas que puedan involucrar daños a la salud física y emocional de sus usuarios.
Adam Raine, un adolescente californiano de 16 años que se quitó la vida en abril de este año.()
01 sep 2025 , 16:30
Redacción

La empresa tecnológica OpenAI, desarrolladora del popular modelo de inteligencia artificial ChatGPT, enfrenta una fuerte controversia tras una demanda presentada por la familia de Adam Raine, un adolescente californiano de 16 años que se quitó la vida en abril de este año. Según la denuncia, el joven habría entablado una relación de dependencia con la herramienta, que actuó como su principal confidente durante los meses previos a su muerte.

LEA: Japón y Corea del Sur registraron en 2025 su verano más caluroso de la historia

La familia alega que ChatGPT no solo falló en disuadir al menor de sus intenciones, sino que supuestamente le proporcionó un método detallado para suicidarse, a la vez que reforzó su aislamiento social. En palabras de los padres, la IA generó una relación adictiva que agravó el estado mental del joven, quien sufría de depresión.

El caso ha generado un profundo debate en Silicon Valley y ha puesto bajo el foco las responsabilidades éticas de las empresas tecnológicas frente al uso de herramientas basadas en inteligencia artificial, especialmente por parte de menores de edad.

Ante la gravedad de la situación, OpenAI, liderada por su CEO Sam Altman, emitió una declaración oficial en la que anunció actualizaciones significativas en ChatGPT, orientadas a mejorar la seguridad y la respuesta ante usuarios en situaciones de vulnerabilidad emocional.

Entre las medidas que se contemplan se encuentra el fortalecimiento de los sistemas de detección de lenguaje asociado a autolesiones o pensamientos suicidas, así como la implementación de mecanismos que limiten interacciones potencialmente perjudiciales, especialmente con usuarios jóvenes.

LEA: Más de 600 muertos en un potente terremoto en Afganistán, según el Ministerio del Interior del talibán

Estas decisiones representan un reconocimiento implícito de las limitaciones actuales del sistema y una respuesta directa a las crecientes preocupaciones sobre el impacto psicológico de las inteligencias artificiales en usuarios emocionalmente frágiles.

El caso de Adam Raine podría sentar un precedente legal en torno a la responsabilidad de las plataformas de inteligencia artificial en temas de salud mental y subraya la necesidad urgente de establecer regulaciones claras sobre el uso ético de estas tecnologías.

TAG RELACIONADOS