Европейская Комиссия призывает технологических гигантов добавлять видимые метки к контенту, созданному с помощью ИИ, что направлено на замедление распространения дипфейков и синтетической дезинформации. Вера Юрова, глава по вопросам прозрачности ЕС, на этой неделе выдвинула ультиматум: компании должны помечать ИИ-контент или столкнуться с регуляторными последствиями.
Что меняется?
Спрос:
Все поставщики инструментов ИИ (OpenAI, Google, Microsoft) должны маркировать сгенерированный текст/изображения перед выпуском
Компании, подписавшие «Кодекс поведения» ЕС 2018 года, должны представить отчеты о соблюдении до июля.
Несоблюдение может привести к принудительным мерам в соответствии с предстоящим Законом об ИИ
Игроки:
Google, Microsoft, Meta: Уже в коде, теперь под давлением
OpenAI: Не официальный подписант, но его инструменты находятся в прицелах ЕС
Twitter: Недавно отказались от кода — теперь подвергаются “строгой оценке” (читайте: более тщательному контролю)
Почему это важно
Генеративный ИИ взорвался в 2023 году. Только ChatGPT достиг 100 миллионов пользователей за 2 месяца. Но с принятием пришла волна опасений: дипфейк-видео, синтетические новостные статьи, мошеннический контент, неотличимый от настоящей журналистики. Шаг Йоуровы пытается решить эту проблему, требуя прозрачности на источнике.
Временная шкала:
Теперь: Поощряемые добровольные кодексы
Июль 2024: Срок подачи первых отчетов по соблюдению
2024-2026: Ожидается полное внедрение Закона ЕС об ИИ
Ловушка
Одной маркировки недостаточно, чтобы остановить злоумышленников — важнее дать пользователям шанс на защиту. Водяной знак или раскрытие информации можно удалить или игнорировать. Реальная сила применения законов исходит из Закона об ИИ, который может накладывать штрафы до 4% от мирового дохода за серьезные нарушения.
Выход Twitter из кода сигнализирует о сопротивлении надзору ЕС. Ожидайте, что платформа столкнется с интенсивным контролем, поскольку Брюссель будет обеспечивать соблюдение через другие регуляторные каналы.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ЕС ужесточает правила по ИИ: ChatGPT, Bard сталкиваются с требованиями к маркировке контента
Европейская Комиссия призывает технологических гигантов добавлять видимые метки к контенту, созданному с помощью ИИ, что направлено на замедление распространения дипфейков и синтетической дезинформации. Вера Юрова, глава по вопросам прозрачности ЕС, на этой неделе выдвинула ультиматум: компании должны помечать ИИ-контент или столкнуться с регуляторными последствиями.
Что меняется?
Спрос:
Игроки:
Почему это важно
Генеративный ИИ взорвался в 2023 году. Только ChatGPT достиг 100 миллионов пользователей за 2 месяца. Но с принятием пришла волна опасений: дипфейк-видео, синтетические новостные статьи, мошеннический контент, неотличимый от настоящей журналистики. Шаг Йоуровы пытается решить эту проблему, требуя прозрачности на источнике.
Временная шкала:
Ловушка
Одной маркировки недостаточно, чтобы остановить злоумышленников — важнее дать пользователям шанс на защиту. Водяной знак или раскрытие информации можно удалить или игнорировать. Реальная сила применения законов исходит из Закона об ИИ, который может накладывать штрафы до 4% от мирового дохода за серьезные нарушения.
Выход Twitter из кода сигнализирует о сопротивлении надзору ЕС. Ожидайте, что платформа столкнется с интенсивным контролем, поскольку Брюссель будет обеспечивать соблюдение через другие регуляторные каналы.