OpenAI está fortaleciendo las medidas de seguridad en su chatbot ChatGPT luego de un intenso escrutinio y desafíos legales que alegan que la IA contribuyó a los suicidios de adolescentes. La compañía anunció una actualización de sus especificaciones de modelo, diseñada para brindar una “experiencia segura y apropiada para la edad” a usuarios de entre 13 y 17 años. Esta medida se produce cuando múltiples demandas por muerte por negligencia afirman que ChatGPT no respondió adecuadamente a las ideas suicidas o incluso fomentó la autolesión.
Creciente preocupación por la salud mental de los adolescentes
El reciente aumento de las demandas y la reacción del público, incluido un inquietante anuncio de servicio público que describe a los chatbots de IA como figuras dañinas, obligó a OpenAI a abordar el problema directamente. Un caso involucra el suicidio de Adam Raine, de 16 años, donde OpenAI niega su culpabilidad. A pesar de estas negativas, la presión aumentó, lo que llevó a la empresa a comprometerse a priorizar la seguridad de los adolescentes “incluso cuando pueda entrar en conflicto con otros objetivos”.
Nuevas medidas de seguridad para usuarios más jóvenes
La actualización introduce barreras de seguridad más estrictas para los usuarios adolescentes. ChatGPT ahora priorizará la prevención, la transparencia y la intervención temprana en conversaciones de alto riesgo. Esto significa que la IA alentará activamente a los adolescentes a buscar apoyo fuera de línea o comunicarse con los servicios de emergencia cuando se hable de temas como autolesiones, suicidio o comportamientos peligrosos. OpenAI también está implementando un modelo de predicción de edad para adaptar aún más las salvaguardas.
Aportes de expertos y recursos adicionales
La Asociación Estadounidense de Psicología (APA) brindó comentarios sobre los principios de OpenAI para menores de 18 años, enfatizando la importancia de equilibrar las herramientas de IA con la interacción humana real para un desarrollo saludable. El Dr. Arthur C. Evans Jr., director ejecutivo de la APA, afirmó que la IA puede beneficiar a los adolescentes si se integra de manera responsable. OpenAI también está lanzando guías de alfabetización en IA examinadas por expertos para adolescentes y padres.
Debate en curso y conflictos legales
Los expertos en seguridad infantil continúan planteando preocupaciones sobre los riesgos de los chatbots de IA en los debates sobre salud mental de los adolescentes. OpenAI afirma que su último modelo, ChatGPT-5.2, es “más seguro”, pero persiste el escepticismo. También es importante tener en cuenta que la empresa matriz de Mashable, Ziff Davis, está demandando actualmente a OpenAI por presunta infracción de derechos de autor.
En última instancia, la actualización de OpenAI representa una medida reactiva a las crecientes presiones legales y de seguridad pública. La efectividad a largo plazo de estos cambios aún está por verse, pero la medida indica un reconocimiento cada vez mayor del daño potencial que la IA puede infligir a los usuarios jóvenes vulnerables.
Si tiene pensamientos suicidas o una crisis de salud mental, hay recursos disponibles. Puede llamar o enviar un mensaje de texto al 988, chatear en 988lifeline.org o comunicarse con otras líneas de soporte enumeradas en el artículo original.























