A Comissão Europeia está a pressionar as gigantes da tecnologia a adicionar rótulos visíveis ao conteúdo gerado por IA, uma medida destinada a retardar a disseminação de deepfakes e desinformação sintética. Vera Jourova, a chefe de transparência da UE, emitiu um ultimato esta semana: as empresas devem sinalizar o conteúdo de IA ou enfrentar consequências regulatórias.
O que está a mudar?
A Demanda:
Todos os fornecedores de ferramentas de IA (OpenAI, Google, Microsoft) devem rotular textos/imagens gerados antes da liberação
As empresas assinadas no “Código de Práticas” da UE de 2018 devem submeter relatórios de conformidade até julho
O não cumprimento poderá desencadear a aplicação sob a nova Lei de IA
Os Jogadores:
Google, Microsoft, Meta: Já no código, agora sob pressão
OpenAI: Não é um signatário oficial, mas suas ferramentas estão na mira da UE.
Twitter: Recentemente abandonou o código—agora enfrentando “avaliação rigorosa” (ler: escrutínio mais próximo)
Por que isso é importante
A IA generativa explodiu em 2023. O ChatGPT sozinho alcançou 100M de utilizadores em 2 meses. Mas com a adoção veio um tsunami de preocupações: vídeos deepfake, artigos de notícias sintéticos, conteúdo fraudulento indistinguível de relatórios reais. A medida de Jourova tenta resolver isso forçando a transparência na fonte.
Cronograma:
Agora: Códigos voluntários incentivados
Julho de 2024: Primeiros relatórios de conformidade devidos
2024-2026: Implementação total da Lei de IA da UE esperada
O Apanhado
A rotulagem sozinha não vai parar os maus atores—é mais sobre dar aos usuários uma chance de lutar. Uma marca d'água ou divulgação pode ser removida ou ignorada. O verdadeiro poder de aplicação vem da Lei da IA, que pode impor multas de até 4% da receita global por violações graves.
A saída do Twitter do código sinaliza resistência à supervisão da UE. Espera-se que a plataforma enfrente um intenso escrutínio enquanto Bruxelas impõe conformidade através de outros canais regulatórios.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
UE Aperta Regras de IA: ChatGPT, Bard Enfrentam Requisitos de Rotulagem de Conteúdo
A Comissão Europeia está a pressionar as gigantes da tecnologia a adicionar rótulos visíveis ao conteúdo gerado por IA, uma medida destinada a retardar a disseminação de deepfakes e desinformação sintética. Vera Jourova, a chefe de transparência da UE, emitiu um ultimato esta semana: as empresas devem sinalizar o conteúdo de IA ou enfrentar consequências regulatórias.
O que está a mudar?
A Demanda:
Os Jogadores:
Por que isso é importante
A IA generativa explodiu em 2023. O ChatGPT sozinho alcançou 100M de utilizadores em 2 meses. Mas com a adoção veio um tsunami de preocupações: vídeos deepfake, artigos de notícias sintéticos, conteúdo fraudulento indistinguível de relatórios reais. A medida de Jourova tenta resolver isso forçando a transparência na fonte.
Cronograma:
O Apanhado
A rotulagem sozinha não vai parar os maus atores—é mais sobre dar aos usuários uma chance de lutar. Uma marca d'água ou divulgação pode ser removida ou ignorada. O verdadeiro poder de aplicação vem da Lei da IA, que pode impor multas de até 4% da receita global por violações graves.
A saída do Twitter do código sinaliza resistência à supervisão da UE. Espera-se que a plataforma enfrente um intenso escrutínio enquanto Bruxelas impõe conformidade através de outros canais regulatórios.