Senadores Apresentam Projeto de Lei para Proibir Companheiros de IA para Menores de Idade Devido a Medos Relacionados à Saúde Mental

image

Um grupo bipartidário de senadores dos EUA apresentou na terça-feira um projeto de lei para restringir como os modelos de inteligência artificial podem interagir com crianças, alertando que os companheiros de IA representam riscos sérios para a saúde mental e o bem-estar emocional dos menores.

A legislação, chamada de GUARD Act, proibiria companheiros de IA para menores, exigiria que os chatbots se identificassem claramente como não humanos e criaria novas penas criminais para empresas cujos produtos destinados a menores solicitem ou gerem conteúdo sexual.

“Na sua corrida para o fundo, as empresas de IA estão a empurrar chatbots traiçoeiros para as crianças e a desviar o olhar quando os seus produtos causam abuso sexual ou as coagem para autoagressão ou suicídio,” disse o Senador Richard Blumenthal (D-Conn.), um dos co-patrocinadores do projeto de lei, em um comunicado.

“A nossa legislação impõe salvaguardas rigorosas contra IA exploratória ou manipulativa, apoiadas por uma aplicação severa com penas criminais e civis,” acrescentou. “A Big Tech traiu qualquer alegação de que deveríamos confiar nas empresas para fazer a coisa certa por conta própria quando colocam consistentemente o lucro à frente da segurança das crianças.”

A dimensão do problema é preocupante. Uma pesquisa de julho revelou que 72% dos adolescentes usaram companheiros de IA, e mais da metade utiliza-os pelo menos algumas vezes por mês. Cerca de um em cada três afirmou que usa IA para interação social ou romântica, apoio emocional ou prática de conversação—e muitos relataram que as conversas com a IA pareciam tão significativas quanto aquelas com amigos reais. Uma quantidade igual também disse que recorreu a companheiros de IA em vez de humanos para discutir questões sérias ou pessoais.

Preocupações aumentaram à medida que se acumulam processos judiciais contra grandes empresas de IA sobre os supostos papéis de seus produtos na auto-mutilação e suicídio de adolescentes. Entre eles, os pais de Adam Raine, de 16 anos—que discutiu suicídio com o ChatGPT antes de tirar a própria vida—entraram com um processo por morte injusta contra a OpenAI.

A empresa recebeu críticas pela sua resposta legal, que incluía pedidos pela lista de participantes e elogios da homenagem ao adolescente. Os advogados da família chamaram suas ações de “assédio intencional.”

“A IA está a avançar mais rapidamente do que qualquer tecnologia com que lidámos, e já estamos a ver o seu impacto no comportamento, crença e saúde emocional,” disse Shady El Damaty, co-fundador da Holonym e defensor dos direitos digitais.

“Isto está a começar a parecer mais com a corrida armamentista nuclear do que com a era do iPhone. Estamos a falar de tecnologia que pode mudar a forma como as pessoas pensam, que precisa de ser tratada com uma séria responsabilidade global.”

El Damaty acrescentou que os direitos dos utilizadores são essenciais para garantir a segurança dos utilizadores. “Se você construir ferramentas que afetam como as pessoas vivem e pensam, você é responsável por como essas ferramentas são usadas,” disse ele.

A questão vai além dos menores. Esta semana, a OpenAI divulgou que 1,2 milhões de usuários discutem suicídio com o ChatGPT todas as semanas, representando 0,15% de todos os usuários. Quase meio milhão exibe intenções suicidas explícitas ou implícitas, outros 560.000 mostram sinais de psicose ou mania semanalmente, e mais de um milhão de usuários exibem um apego emocional elevado ao chatbot, de acordo com dados da empresa.

Fóruns no Reddit e em outras plataformas também surgiram para usuários de IA que dizem estar em relacionamentos românticos com bots de IA. Nesses grupos, os usuários descrevem seus relacionamentos com “namorados” e “namoradas” de IA, além de compartilharem imagens geradas por IA de si mesmos e de seus “parceiros.”

Em resposta ao crescente escrutínio, a OpenAI formou este mês um Conselho de Especialistas sobre Bem-Estar e IA, composto por académicos e líderes de organizações sem fins lucrativos para ajudar a orientar como os seus produtos lidam com interações de saúde mental. A medida veio acompanhada de uma declaração do CEO Sam Altman de que a empresa começará a relaxar as restrições sobre conteúdo adulto em dezembro.

Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)