ИИ в креативных индустриях: злоупотребление, противоречия и стремление к регулированию, ориентированному на использование

Кратко

Злоупотребление ИИ вызывает громкие скандалы, побуждая регуляторов по всему миру внедрять меры прозрачности, согласия и ответственности, ориентированные на использование, в то время как дебаты продолжаются о том, смогут ли текущие рамки поспевать за быстро развивающимися технологиями.

AI is quickly reshaping creative practice

ИИ быстро меняет творческую практику, но его злоупотребление распространяется так же быстро. Необъявленное использование ИИ для написания текстов, клонирование голоса и образа, а также создание изображений с помощью ИИ неоднократно появляются после публикации или даже награждения, вызывая громкие скандалы и подрывая доверие к культурным институтам.

Регуляторы и платформы спешат реагировать с помощью требований раскрытия информации, предложений по маркировке контента, стандартов происхождения и водяных знаков, а также целенаправленных мер по пресечению нарушений. Однако текущая система остается разрозненной, медленной и зачастую неясной. Как законодатели могут защитить создателей и потребителей, не подавляя инновации? Способны ли существующие правила идти в ногу с быстро меняющимся ландшафтом ИИ? Эти вопросы лежат в основе одного из самых актуальных дебатов в области технологий и творчества сегодня.

Одним из наиболее заметных скандалов, связанных с ИИ за последние годы, является Sympathy Tower Tokyo Рие Кудан, победитель премии Акутагавы 2024 года. Автор сообщил, что примерно 5% романа — в основном ответы чатбота внутри истории — были созданы с помощью ChatGPT. Это открытие вызвало дебаты о авторстве и прозрачности в литературе. Критики разделились: одни хвалили работу как инновационное использование ИИ для исследования языка и технологий, другие рассматривали это как вызов традиционным нормам оригинального авторства и литературной целостности. Освещение в крупных СМИ подчеркнуло темы книги — справедливость, эмпатию и социальные последствия ИИ — а также процедурные вопросы, связанные с использованием генеративных моделей в награждаемой работе, что вызвало призывы к более ясным стандартам раскрытия информации и пересмотру критериев награждения. Этот случай стал отправной точкой в более широких дискуссиях о творческом агентстве, авторском праве и этических границах использования ИИ в искусстве, с долгосрочными последствиями для издателей, жюри и норм авторства.

Еще один громкий инцидент связан с Darkhollow Academy: Year Two Лены Макдональд, где читатели обнаружили встроенную подсказку и заметку о редактировании, созданные ИИ, в третьей главе. Это случайное раскрытие показало, что автор использовал инструмент ИИ для имитации стиля другого писателя, вызвав мгновенную волну критики и широкое освещение. Этот случай подчеркнул ограничения текущих рабочих процессов в издательском деле и необходимость четких норм по использованию ИИ в написании текстов. Он усилил призывы к прозрачности, вызвал обсуждения о редакционном контроле и качестве, а также стал частью более широких дебатов о приписывании авторства, стилистическом имитировании и рисках интеллектуальной собственности в коммерческой фантастике.

В области визуальных искусств немецкий фотограф Борис Эльдагсен недавно вызвал скандал, когда изображение, которое он представил на премии Sony World Photography Awards, оказалось полностью создано ИИ. Работа изначально выиграла в категории Creative Open, что вызвало дебаты о границах между контентом, созданным ИИ, и традиционной фотографией. В конце концов фотограф отказался от награды, а критики и представители индустрии поставили под вопрос, как конкурсы должны относиться к работам, созданным с помощью ИИ или с использованием ИИ.

Музыкальная индустрия столкнулась с аналогичными проблемами. Трек британского EDM-исполнителя Haven «I Run» стал громким скандалом в 2025 году после того, как выяснилось, что ведущие вокалы были созданы с помощью синтетической технологии, имитирующей реального исполнителя. Основные стриминговые платформы удалили трек за нарушение правил о подделке и авторских правах, вызвав широкую критику, новые требования к явному согласию и атрибуции при использовании ИИ для имитации живых исполнителей, а также ускорили дискуссии о политике и законодательстве в области управления музыкой с помощью ИИ, защиты прав исполнителей, соблюдения авторских прав и сохранения доверия к творческому признанию.

Регуляторы борются с вредом ИИ: ЕС, США, Великобритания и Италия внедряют риск-ориентированные рамки

Проблема вреда от использования ИИ — включая случаи, когда создатели представляют работу, созданную ИИ, как человеческое творчество — стала актуальной, и новые регуляторные рамки начинают ее решать.

Закон об ИИ Европейского союза устанавливает риск-ориентированную правовую основу, которая вступила в силу в 2024 году, с поэтапными обязательствами до 2026–2027 годов. Закон требует прозрачности для генеративных систем, включая маркировку контента, созданного ИИ, в определенных контекстах, проведение оценок рисков и управление высокорискованными применениями, а также наделяет Европейское агентство по ИИ и национальные регуляторы полномочиями по обеспечению соблюдения. Эти положения напрямую нацелены на проблемы, такие как нераскрытая медиа, созданная ИИ, и непрозрачное обучение моделей.

Национальные законодатели также быстро действуют в некоторых областях. Например, Италия в 2025 году приняла комплексный национальный закон об ИИ, вводящий более строгие штрафы за вредоносное использование, такое как deepfake-преступления, и закрепляющий требования прозрачности и человеческого контроля — демонстрируя, как местное законодательство может дополнять правила ЕС. Европейская комиссия одновременно разрабатывает необязательные инструменты и отраслевые кодексы практики, особенно для универсального ИИ, хотя внедрение сталкивается с задержками и сопротивлением отрасли, что отражает сложность создания своевременных и практичных правил для быстро развивающихся технологий.

Великобритания приняла «прогрессивный» регуляторный подход, сочетающий правительственные белые книги, отраслевые рекомендации от регуляторов, таких как Ofcom и ICO, и принципы надзора, подчеркивающие безопасность, прозрачность, справедливость и ответственность. Вместо внедрения единого кода, похожего на ЕС, власти Великобритании сосредоточены на рекомендациях и постепенном развитии возможностей надзора.

В США политики реализуют секторный, ведомственный подход, основанный на Исполнительном приказе 14110 от октября 2023 года, который координирует федеральные действия по безопасному, надежному и заслуживающему доверия ИИ. Такой подход делает акцент на управлении рисками, тестировании безопасности и целенаправленном регулировании, а межведомственные документы, такие как План действий по ИИ США, предоставляют рекомендации, стандарты и правила закупок, а не единый всеобъемлющий закон.

Мартин Касадо выступает за использование-ориентированное регулирование ИИ для защиты создателей без подавления инноваций

Для создателей и платформ практические последствия очевидны. Регуляторы требуют более строгого раскрытия информации, включая четкую маркировку контента, созданного ИИ, правила согласия при клонировании голоса и образа, стандарты происхождения и водяных знаков для сгенерированных медиа, а также более жесткие правила авторских прав и использования производных работ. Эти меры направлены на предотвращение подделки, защиту исполнителей и авторов, а также повышение ответственности платформ за потенциально вводящий в заблуждение контент — по сути, реализуя «ориентированный на использование» подход, рекомендованный партнером Andreessen Horowitz Мартином Касадо в эпизоде подкаста a16z.

Он утверждает, что политика должна сосредоточиться на том, как используется ИИ и какие конкретные вреды он может причинить, а не на контроле за развитием моделей ИИ, что быстро меняется, трудно определить и легко уклониться. Венчурный капиталист предупреждает, что чрезмерно широкие, ориентированные на развитие правила могут охладить открытые исследования и ослабить инновации.

Мартин Касадо подчеркивает, что преступные или вредоносные действия с использованием ИИ должны оставаться преследуемыми по существующим законам, а регулирование должно сначала обеспечить эффективное применение уголовных, потребительских, гражданских и антимонопольных статутов. Где есть пробелы, он выступает за новые законы, основанные на эмпирических данных и узконаправленные на конкретные риски, а не за широкие, спекулятивные мандаты, которые могут подавить технологический прогресс.

Эксперт считает важным сохранять открытость в развитии ИИ, например, поддерживая открытые модели, чтобы сохранить долгосрочные инновации и конкурентоспособность, одновременно делая регуляторные меры точными, практичными и сфокусированными на реальных вредах.

IN-2,18%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить