La Comisión Europea está presionando a los gigantes tecnológicos para que añadan etiquetas visibles al contenido generado por IA, un movimiento diseñado para frenar la propagación de deepfakes y desinformación sintética. Vera Jourova, la jefa de transparencia de la UE, emitió un ultimátum esta semana: las empresas deben marcar el contenido de IA o enfrentar consecuencias regulatorias.
¿Qué está cambiando?
La Demanda:
Todos los proveedores de herramientas de IA (OpenAI, Google, Microsoft) deben etiquetar el texto/las imágenes generadas antes de su lanzamiento
Las empresas firmantes del “Código de Práctica” de la UE de 2018 deben presentar informes de cumplimiento antes de julio.
El incumplimiento podría activar la aplicación bajo la próxima Ley de IA
Los Jugadores:
Google, Microsoft, Meta: Ya en el código, ahora bajo presión
OpenAI: No es un firmante oficial, pero sus herramientas están en la mira de la UE
Twitter: Recientemente desechó el código—ahora enfrentando “evaluación rigurosa” ( leer: mayor escrutinio )
Por qué esto importa
La IA generativa explotó en 2023. ChatGPT solo alcanzó 100 millones de usuarios en 2 meses. Pero con la adopción llegó un tsunami de preocupaciones: videos deepfake, artículos de noticias sintéticas, contenido fraudulento indistinguible de la información real. El movimiento de Jourova intenta resolver esto obligando a la transparencia en la fuente.
Cronograma:
Ahora: Códigos voluntarios fomentados
Julio 2024: Primeros informes de cumplimiento vencen
2024-2026: Se espera la implementación completa de la Ley de IA de la UE
La captura
Etiquetar por sí solo no detendrá a los actores malintencionados; se trata más de dar a los usuarios una oportunidad de luchar. Una marca de agua o divulgación puede ser eliminada o ignorada. El verdadero poder de aplicación proviene de la Ley de IA, que podría imponer multas de hasta el 4% de los ingresos globales por violaciones graves.
La salida de Twitter del código señala resistencia a la supervisión de la UE. Se espera que la plataforma enfrente un intenso escrutinio mientras Bruselas aplica el cumplimiento a través de otros canales regulatorios.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La UE endurece las reglas de IA: ChatGPT y Bard enfrentan requisitos de etiquetado de contenido
La Comisión Europea está presionando a los gigantes tecnológicos para que añadan etiquetas visibles al contenido generado por IA, un movimiento diseñado para frenar la propagación de deepfakes y desinformación sintética. Vera Jourova, la jefa de transparencia de la UE, emitió un ultimátum esta semana: las empresas deben marcar el contenido de IA o enfrentar consecuencias regulatorias.
¿Qué está cambiando?
La Demanda:
Los Jugadores:
Por qué esto importa
La IA generativa explotó en 2023. ChatGPT solo alcanzó 100 millones de usuarios en 2 meses. Pero con la adopción llegó un tsunami de preocupaciones: videos deepfake, artículos de noticias sintéticas, contenido fraudulento indistinguible de la información real. El movimiento de Jourova intenta resolver esto obligando a la transparencia en la fuente.
Cronograma:
La captura
Etiquetar por sí solo no detendrá a los actores malintencionados; se trata más de dar a los usuarios una oportunidad de luchar. Una marca de agua o divulgación puede ser eliminada o ignorada. El verdadero poder de aplicación proviene de la Ley de IA, que podría imponer multas de hasta el 4% de los ingresos globales por violaciones graves.
La salida de Twitter del código señala resistencia a la supervisión de la UE. Se espera que la plataforma enfrente un intenso escrutinio mientras Bruselas aplica el cumplimiento a través de otros canales regulatorios.