A Comissão Europeia está a pressionar as gigantes da tecnologia a adicionar rótulos visíveis ao conteúdo gerado por IA, uma medida destinada a retardar a disseminação de deepfakes e desinformação sintética. Vera Jourova, a chefe de transparência da UE, emitiu um ultimato esta semana: as empresas devem sinalizar o conteúdo de IA ou enfrentar consequências regulatórias.
O que está a mudar?
A Demanda:
Todos os fornecedores de ferramentas de IA (OpenAI, Google, Microsoft) devem rotular textos/imagens gerados antes da liberação
As empresas assinadas no “Código de Práticas” da UE de 2018 devem submeter relatórios de conformidade até julho
O não cumprimento poderá desencadear a aplicação sob a nova Lei de IA
Os Jogadores:
Google, Microsoft, Meta: Já no código, agora sob pressão
OpenAI: Não é um signatário oficial, mas suas ferramentas estão na mira da UE.
Twitter: Recentemente abandonou o código—agora enfrentando “avaliação rigorosa” (ler: escrutínio mais próximo)
Por que isso é importante
A IA generativa explodiu em 2023. O ChatGPT sozinho alcançou 100M de utilizadores em 2 meses. Mas com a adoção veio um tsunami de preocupações: vídeos deepfake, artigos de notícias sintéticos, conteúdo fraudulento indistinguível de relatórios reais. A medida de Jourova tenta resolver isso forçando a transparência na fonte.
Cronograma:
Agora: Códigos voluntários incentivados
Julho de 2024: Primeiros relatórios de conformidade devidos
2024-2026: Implementação total da Lei de IA da UE esperada
O Apanhado
A rotulagem sozinha não vai parar os maus atores—é mais sobre dar aos usuários uma chance de lutar. Uma marca d'água ou divulgação pode ser removida ou ignorada. O verdadeiro poder de aplicação vem da Lei da IA, que pode impor multas de até 4% da receita global por violações graves.
A saída do Twitter do código sinaliza resistência à supervisão da UE. Espera-se que a plataforma enfrente um intenso escrutínio enquanto Bruxelas impõe conformidade através de outros canais regulatórios.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
UE Aperta Regras de IA: ChatGPT, Bard Enfrentam Requisitos de Rotulagem de Conteúdo
A Comissão Europeia está a pressionar as gigantes da tecnologia a adicionar rótulos visíveis ao conteúdo gerado por IA, uma medida destinada a retardar a disseminação de deepfakes e desinformação sintética. Vera Jourova, a chefe de transparência da UE, emitiu um ultimato esta semana: as empresas devem sinalizar o conteúdo de IA ou enfrentar consequências regulatórias.
O que está a mudar?
A Demanda:
Os Jogadores:
Por que isso é importante
A IA generativa explodiu em 2023. O ChatGPT sozinho alcançou 100M de utilizadores em 2 meses. Mas com a adoção veio um tsunami de preocupações: vídeos deepfake, artigos de notícias sintéticos, conteúdo fraudulento indistinguível de relatórios reais. A medida de Jourova tenta resolver isso forçando a transparência na fonte.
Cronograma:
O Apanhado
A rotulagem sozinha não vai parar os maus atores—é mais sobre dar aos usuários uma chance de lutar. Uma marca d'água ou divulgação pode ser removida ou ignorada. O verdadeiro poder de aplicação vem da Lei da IA, que pode impor multas de até 4% da receita global por violações graves.
A saída do Twitter do código sinaliza resistência à supervisão da UE. Espera-se que a plataforma enfrente um intenso escrutínio enquanto Bruxelas impõe conformidade através de outros canais regulatórios.