Un grupo bipartidista de senadores de EE. UU. presentó el martes un proyecto de ley para restringir cómo los modelos de inteligencia artificial pueden interactuar con los niños, advirtiendo que los compañeros de IA representan riesgos graves para la salud mental y el bienestar emocional de los menores.
La legislación, llamada la Ley GUARD, prohibiría los compañeros de IA para menores, exigiría que los chatbots se identificaran claramente como no humanos, y crearía nuevas sanciones penales para las empresas cuyos productos destinados a menores soliciten o generen contenido sexual.
“En su carrera hacia el abismo, las empresas de IA están impulsando chatbots peligrosos para los niños y mirando hacia otro lado cuando sus productos causan abuso sexual, o los coaccionan hacia el autolesionismo o el suicidio”, dijo el senador Richard Blumenthal (D-Conn.), uno de los coautores del proyecto de ley, en un comunicado.
“Nuestra legislación impone estrictas salvaguardias contra la IA explotadora o manipulativa, respaldadas por un rigoroso cumplimiento con sanciones penales y civiles,” agregó. “Las grandes empresas tecnológicas han traicionado cualquier afirmación de que deberíamos confiar en que las compañías hagan lo correcto por su cuenta cuando consistentemente priorizan las ganancias sobre la seguridad infantil.”
La magnitud del problema es preocupante. Una encuesta de julio encontró que el 72% de los adolescentes han utilizado compañeros de IA, y más de la mitad los utilizan al menos unas pocas veces al mes. Aproximadamente uno de cada tres dijo que usa IA para interacción social o romántica, apoyo emocional o práctica de conversación—y muchos informaron que las charlas con IA se sentían tan significativas como las que tienen con amigos reales. Una cantidad igual también dijo que recurrían a compañeros de IA en lugar de humanos para discutir problemas serios o personales.
Las preocupaciones se han intensificado a medida que se acumulan las demandas contra las principales empresas de IA por los supuestos roles de sus productos en el autolesionismo y el suicidio de adolescentes. Entre ellas, los padres de Adam Raine, de 16 años, quien discutió sobre el suicidio con ChatGPT antes de quitarse la vida, han presentado una demanda por muerte por negligencia contra OpenAI.
La empresa recibió críticas por su respuesta legal, que incluía solicitudes de la lista de asistentes y los elogios del memorial del adolescente. Los abogados de la familia calificaron sus acciones como “acoso intencional.”
“La IA se está moviendo más rápido que cualquier tecnología con la que hemos tratado, y ya estamos viendo su impacto en el comportamiento, la creencia y la salud emocional”, dijo Shady El Damaty, cofundador de Holonym y defensor de los derechos digitales.
“Esto está empezando a parecerse más a la carrera armamentista nuclear que a la era del iPhone. Estamos hablando de tecnología que puede cambiar la forma en que la gente piensa, que necesita ser tratada con una seria responsabilidad global.”
El Damaty añadió que los derechos de los usuarios son esenciales para garantizar la seguridad de los usuarios. “Si construyes herramientas que afectan cómo viven y piensan las personas, eres responsable de cómo se utilizan esas herramientas,” dijo.
El problema va más allá de los menores. Esta semana OpenAI divulgó que 1.2 millones de usuarios discuten sobre el suicidio con ChatGPT cada semana, lo que representa el 0.15% de todos los usuarios. Casi medio millón muestra intenciones suicidas explícitas o implícitas, otros 560,000 muestran signos de psicosis o manía semanalmente, y más de un millón de usuarios exhiben un apego emocional elevado al chatbot, según datos de la empresa.
Los foros en Reddit y otras plataformas también han surgido para usuarios de IA que dicen estar en relaciones románticas con bots de IA. En estos grupos, los usuarios describen sus relaciones con “novios” y “novias” de IA, así como comparten imágenes generadas por IA de sí mismos y de sus “parejas.”
En respuesta a una creciente supervisión, OpenAI este mes formó un Consejo de Expertos en Bienestar y AI, compuesto por académicos y líderes de organizaciones sin fines de lucro para ayudar a guiar cómo sus productos manejan las interacciones de salud mental. La medida se anunció junto con la palabra del CEO Sam Altman de que la empresa comenzará a relajar las restricciones sobre contenido para adultos en diciembre.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los senadores presentan un proyecto de ley para prohibir los compañeros de IA para menores debido a temores por la salud mental
Un grupo bipartidista de senadores de EE. UU. presentó el martes un proyecto de ley para restringir cómo los modelos de inteligencia artificial pueden interactuar con los niños, advirtiendo que los compañeros de IA representan riesgos graves para la salud mental y el bienestar emocional de los menores.
La legislación, llamada la Ley GUARD, prohibiría los compañeros de IA para menores, exigiría que los chatbots se identificaran claramente como no humanos, y crearía nuevas sanciones penales para las empresas cuyos productos destinados a menores soliciten o generen contenido sexual.
“En su carrera hacia el abismo, las empresas de IA están impulsando chatbots peligrosos para los niños y mirando hacia otro lado cuando sus productos causan abuso sexual, o los coaccionan hacia el autolesionismo o el suicidio”, dijo el senador Richard Blumenthal (D-Conn.), uno de los coautores del proyecto de ley, en un comunicado.
“Nuestra legislación impone estrictas salvaguardias contra la IA explotadora o manipulativa, respaldadas por un rigoroso cumplimiento con sanciones penales y civiles,” agregó. “Las grandes empresas tecnológicas han traicionado cualquier afirmación de que deberíamos confiar en que las compañías hagan lo correcto por su cuenta cuando consistentemente priorizan las ganancias sobre la seguridad infantil.”
La magnitud del problema es preocupante. Una encuesta de julio encontró que el 72% de los adolescentes han utilizado compañeros de IA, y más de la mitad los utilizan al menos unas pocas veces al mes. Aproximadamente uno de cada tres dijo que usa IA para interacción social o romántica, apoyo emocional o práctica de conversación—y muchos informaron que las charlas con IA se sentían tan significativas como las que tienen con amigos reales. Una cantidad igual también dijo que recurrían a compañeros de IA en lugar de humanos para discutir problemas serios o personales.
Las preocupaciones se han intensificado a medida que se acumulan las demandas contra las principales empresas de IA por los supuestos roles de sus productos en el autolesionismo y el suicidio de adolescentes. Entre ellas, los padres de Adam Raine, de 16 años, quien discutió sobre el suicidio con ChatGPT antes de quitarse la vida, han presentado una demanda por muerte por negligencia contra OpenAI.
La empresa recibió críticas por su respuesta legal, que incluía solicitudes de la lista de asistentes y los elogios del memorial del adolescente. Los abogados de la familia calificaron sus acciones como “acoso intencional.”
“La IA se está moviendo más rápido que cualquier tecnología con la que hemos tratado, y ya estamos viendo su impacto en el comportamiento, la creencia y la salud emocional”, dijo Shady El Damaty, cofundador de Holonym y defensor de los derechos digitales.
“Esto está empezando a parecerse más a la carrera armamentista nuclear que a la era del iPhone. Estamos hablando de tecnología que puede cambiar la forma en que la gente piensa, que necesita ser tratada con una seria responsabilidad global.”
El Damaty añadió que los derechos de los usuarios son esenciales para garantizar la seguridad de los usuarios. “Si construyes herramientas que afectan cómo viven y piensan las personas, eres responsable de cómo se utilizan esas herramientas,” dijo.
El problema va más allá de los menores. Esta semana OpenAI divulgó que 1.2 millones de usuarios discuten sobre el suicidio con ChatGPT cada semana, lo que representa el 0.15% de todos los usuarios. Casi medio millón muestra intenciones suicidas explícitas o implícitas, otros 560,000 muestran signos de psicosis o manía semanalmente, y más de un millón de usuarios exhiben un apego emocional elevado al chatbot, según datos de la empresa.
Los foros en Reddit y otras plataformas también han surgido para usuarios de IA que dicen estar en relaciones románticas con bots de IA. En estos grupos, los usuarios describen sus relaciones con “novios” y “novias” de IA, así como comparten imágenes generadas por IA de sí mismos y de sus “parejas.”
En respuesta a una creciente supervisión, OpenAI este mes formó un Consejo de Expertos en Bienestar y AI, compuesto por académicos y líderes de organizaciones sin fines de lucro para ayudar a guiar cómo sus productos manejan las interacciones de salud mental. La medida se anunció junto con la palabra del CEO Sam Altman de que la empresa comenzará a relajar las restricciones sobre contenido para adultos en diciembre.