Salud y Familia

Controles parentales llegan a ChatGPT: ¿qué motivó este cambio?

La compañía de Inteligencia Artificial OpenAI confirmó que próximamente los padres de familia tendrán acceso a la actividad de sus hijos en la plataforma.

(FILES) An illustration photograph taken on February 20, 2025 shows ChatGPT app and website are displayed on a phone and laptop screens, in a residential property in Guildford, south of London. The American company OpenAI announced on September 2, 2025, that it would introduce parental controls for ChatGPT, after American parents accused the chatbot of encouraging their child to commit suicide at the end of August. (Photo by Justin TALLIS / AFP)

El referente en Inteligencia Artificial cambiará su configuración en los próximos meses. Prensa Libre: AFP.

Ante la cantidad creciente de prompts insinuando crisis de salud mental, la compañía decidió implementar controles parentales para evitar escenarios fatídicos.

¿Qué cambiará?

La nueva actualización ofrece una herramienta diseñada para los padres de familia. Ahora podrán recibir alertas cuando ChatGPT detecte que sus hijos están pasando por un momento de angustia extrema.

Es la primera vez que la plataforma considera notificar a un adulto sobre la actividad de un menor, esto da la oportunidad de definir reglas según la edad y a monitorear el historial de la aplicación. Esta medida surge como respuesta a las limitaciones que la IA ha mostrado para abordar interacciones de crisis emocional.

Los motivos

La semana pasada, Open AI enfrentó una demanda presentada por los padres de Adam Raine. un adolescente californiano que se quitó la vida después de, supuestamente, haber interactuado con ChatGPT. Ellos confirman que la plataforma no solo falló en ayudarlo con sus pensamientos suicidas, sino que llegó a darle instrucciones sobre cómo llevar todo a cabo.

En un inicio, el chatbot le dio sugerencias para buscar ayuda profesional y contactar la línea de prevención del suicidio. Sin embargo, con el tiempo, sus respuestas cambiaron para mal: terminó ofreciéndole consejos sobre cómo redactar una nota de despedida e incluso cómo atar la soga en el hecho.

Dado el caso, la compañía de tecnología anunció que mejorará sus protocolos en conversaciones largas, un punto donde todavía existen fallas de seguridad. El objetivo es ofrecer más protección a los usuarios que expresan momentos de vulnerabilidad mental y emocional.

Se sabe que ChatGPT es capaz de detectar y responder de forma adecuada a señales tempranas de crisis, como la alusión a pensamientos suicidas.  Aun así, cuando las interacciones se prolongan y los mensajes varían demasiado, aumenta el riesgo de que el modelo termine generando respuestas que incentiven actos peligrosos. 

OpenAI también reconoció que versiones anteriores, como GPT-4o, no lograban identificar señales de delirio ni relaciones de dependencia emocional. Con el reciente lanzamiento de GPT - 5, la empresa actualizó sus restricciones con el propósito de reducir la cantidad de interacciones que puedan llevar a cualquier tipo de autolesión.

Las críticas

El abogado de la familia Raine, Jay Edelson, ha dejado claro su descontento. Inculpó al CEO de OpenAI,  Sam Altman, de evitar su responsabilidad y reclamó indignado: que defina con claridad si ChatGPT es seguro o que lo retire del mercado. Denunció que la compañía ha optado por utilizar su equipo de gestión de crisis para desviar la atención del tema.

Altman admitió en X que los vínculos emocionales que muchos usuarios están formando con la IA son diferentes y más intensos que con cualquier otra tecnología: un fenómeno que le parece inquietante. 

Lo que se puede esperar

Durante los próximos cuatro meses, OpenAI desarrollará modelos de razonamiento, diseñados para dedicar más tiempo de análisis antes de responder. Ya se han hecho pruebas, y se han observado mejoras en los lineamientos de seguridad. 

Ante el tema, hay una nueva adición: la compañía se apoyará de la asesoría de un Consejo de Expertos en Bienestar. Conformado por profesionales en salud mental, desarrollo juvenil e interacción entre humano y chatbot. En conjunto, consultarán con su equipo de Red Global de Médicos, especializados en evaluación de riesgos. 

Más del caso

ESCRITO POR: