Злоупотребление ИИ вызывает громкие скандалы, побуждая регуляторов по всему миру внедрять меры прозрачности, согласия и ответственности, ориентированные на использование, в то время как дебаты продолжаются о том, смогут ли текущие рамки поспевать за быстро развивающимися технологиями.
ИИ быстро меняет творческую практику, но его злоупотребление распространяется так же быстро. Необъявленное использование ИИ для написания текстов, клонирование голоса и образа, а также создание изображений с помощью ИИ неоднократно появляются после публикации или даже награждения, вызывая громкие скандалы и подрывая доверие к культурным институтам.
Регуляторы и платформы спешат реагировать с помощью требований раскрытия информации, предложений по маркировке контента, стандартов происхождения и водяных знаков, а также целенаправленных мер по пресечению нарушений. Однако текущая система остается разрозненной, медленной и зачастую неясной. Как законодатели могут защитить создателей и потребителей, не подавляя инновации? Способны ли существующие правила идти в ногу с быстро меняющимся ландшафтом ИИ? Эти вопросы лежат в основе одного из самых актуальных дебатов в области технологий и творчества сегодня.
Одним из наиболее заметных скандалов, связанных с ИИ за последние годы, является Sympathy Tower Tokyo Рие Кудан, победитель премии Акутагавы 2024 года. Автор сообщил, что примерно 5% романа — в основном ответы чатбота внутри истории — были созданы с помощью ChatGPT. Это открытие вызвало дебаты о авторстве и прозрачности в литературе. Критики разделились: одни хвалили работу как инновационное использование ИИ для исследования языка и технологий, другие рассматривали это как вызов традиционным нормам оригинального авторства и литературной целостности. Освещение в крупных СМИ подчеркнуло темы книги — справедливость, эмпатию и социальные последствия ИИ — а также процедурные вопросы, связанные с использованием генеративных моделей в награждаемой работе, что вызвало призывы к более ясным стандартам раскрытия информации и пересмотру критериев награждения. Этот случай стал отправной точкой в более широких дискуссиях о творческом агентстве, авторском праве и этических границах использования ИИ в искусстве, с долгосрочными последствиями для издателей, жюри и норм авторства.
Еще один громкий инцидент связан с Darkhollow Academy: Year Two Лены Макдональд, где читатели обнаружили встроенную подсказку и заметку о редактировании, созданные ИИ, в третьей главе. Это случайное раскрытие показало, что автор использовал инструмент ИИ для имитации стиля другого писателя, вызвав мгновенную волну критики и широкое освещение. Этот случай подчеркнул ограничения текущих рабочих процессов в издательском деле и необходимость четких норм по использованию ИИ в написании текстов. Он усилил призывы к прозрачности, вызвал обсуждения о редакционном контроле и качестве, а также стал частью более широких дебатов о приписывании авторства, стилистическом имитировании и рисках интеллектуальной собственности в коммерческой фантастике.
В области визуальных искусств немецкий фотограф Борис Эльдагсен недавно вызвал скандал, когда изображение, которое он представил на премии Sony World Photography Awards, оказалось полностью создано ИИ. Работа изначально выиграла в категории Creative Open, что вызвало дебаты о границах между контентом, созданным ИИ, и традиционной фотографией. В конце концов фотограф отказался от награды, а критики и представители индустрии поставили под вопрос, как конкурсы должны относиться к работам, созданным с помощью ИИ или с использованием ИИ.
Музыкальная индустрия столкнулась с аналогичными проблемами. Трек британского EDM-исполнителя Haven «I Run» стал громким скандалом в 2025 году после того, как выяснилось, что ведущие вокалы были созданы с помощью синтетической технологии, имитирующей реального исполнителя. Основные стриминговые платформы удалили трек за нарушение правил о подделке и авторских правах, вызвав широкую критику, новые требования к явному согласию и атрибуции при использовании ИИ для имитации живых исполнителей, а также ускорили дискуссии о политике и законодательстве в области управления музыкой с помощью ИИ, защиты прав исполнителей, соблюдения авторских прав и сохранения доверия к творческому признанию.
Регуляторы борются с вредом ИИ: ЕС, США, Великобритания и Италия внедряют риск-ориентированные рамки
Проблема вреда от использования ИИ — включая случаи, когда создатели представляют работу, созданную ИИ, как человеческое творчество — стала актуальной, и новые регуляторные рамки начинают ее решать.
Закон об ИИ Европейского союза устанавливает риск-ориентированную правовую основу, которая вступила в силу в 2024 году, с поэтапными обязательствами до 2026–2027 годов. Закон требует прозрачности для генеративных систем, включая маркировку контента, созданного ИИ, в определенных контекстах, проведение оценок рисков и управление высокорискованными применениями, а также наделяет Европейское агентство по ИИ и национальные регуляторы полномочиями по обеспечению соблюдения. Эти положения напрямую нацелены на проблемы, такие как нераскрытая медиа, созданная ИИ, и непрозрачное обучение моделей.
Национальные законодатели также быстро действуют в некоторых областях. Например, Италия в 2025 году приняла комплексный национальный закон об ИИ, вводящий более строгие штрафы за вредоносное использование, такое как deepfake-преступления, и закрепляющий требования прозрачности и человеческого контроля — демонстрируя, как местное законодательство может дополнять правила ЕС. Европейская комиссия одновременно разрабатывает необязательные инструменты и отраслевые кодексы практики, особенно для универсального ИИ, хотя внедрение сталкивается с задержками и сопротивлением отрасли, что отражает сложность создания своевременных и практичных правил для быстро развивающихся технологий.
Великобритания приняла «прогрессивный» регуляторный подход, сочетающий правительственные белые книги, отраслевые рекомендации от регуляторов, таких как Ofcom и ICO, и принципы надзора, подчеркивающие безопасность, прозрачность, справедливость и ответственность. Вместо внедрения единого кода, похожего на ЕС, власти Великобритании сосредоточены на рекомендациях и постепенном развитии возможностей надзора.
В США политики реализуют секторный, ведомственный подход, основанный на Исполнительном приказе 14110 от октября 2023 года, который координирует федеральные действия по безопасному, надежному и заслуживающему доверия ИИ. Такой подход делает акцент на управлении рисками, тестировании безопасности и целенаправленном регулировании, а межведомственные документы, такие как План действий по ИИ США, предоставляют рекомендации, стандарты и правила закупок, а не единый всеобъемлющий закон.
Мартин Касадо выступает за использование-ориентированное регулирование ИИ для защиты создателей без подавления инноваций
Для создателей и платформ практические последствия очевидны. Регуляторы требуют более строгого раскрытия информации, включая четкую маркировку контента, созданного ИИ, правила согласия при клонировании голоса и образа, стандарты происхождения и водяных знаков для сгенерированных медиа, а также более жесткие правила авторских прав и использования производных работ. Эти меры направлены на предотвращение подделки, защиту исполнителей и авторов, а также повышение ответственности платформ за потенциально вводящий в заблуждение контент — по сути, реализуя «ориентированный на использование» подход, рекомендованный партнером Andreessen Horowitz Мартином Касадо в эпизоде подкаста a16z.
Он утверждает, что политика должна сосредоточиться на том, как используется ИИ и какие конкретные вреды он может причинить, а не на контроле за развитием моделей ИИ, что быстро меняется, трудно определить и легко уклониться. Венчурный капиталист предупреждает, что чрезмерно широкие, ориентированные на развитие правила могут охладить открытые исследования и ослабить инновации.
Мартин Касадо подчеркивает, что преступные или вредоносные действия с использованием ИИ должны оставаться преследуемыми по существующим законам, а регулирование должно сначала обеспечить эффективное применение уголовных, потребительских, гражданских и антимонопольных статутов. Где есть пробелы, он выступает за новые законы, основанные на эмпирических данных и узконаправленные на конкретные риски, а не за широкие, спекулятивные мандаты, которые могут подавить технологический прогресс.
Эксперт считает важным сохранять открытость в развитии ИИ, например, поддерживая открытые модели, чтобы сохранить долгосрочные инновации и конкурентоспособность, одновременно делая регуляторные меры точными, практичными и сфокусированными на реальных вредах.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ИИ в креативных индустриях: злоупотребление, противоречия и стремление к регулированию, ориентированному на использование
Кратко
Злоупотребление ИИ вызывает громкие скандалы, побуждая регуляторов по всему миру внедрять меры прозрачности, согласия и ответственности, ориентированные на использование, в то время как дебаты продолжаются о том, смогут ли текущие рамки поспевать за быстро развивающимися технологиями.
ИИ быстро меняет творческую практику, но его злоупотребление распространяется так же быстро. Необъявленное использование ИИ для написания текстов, клонирование голоса и образа, а также создание изображений с помощью ИИ неоднократно появляются после публикации или даже награждения, вызывая громкие скандалы и подрывая доверие к культурным институтам.
Регуляторы и платформы спешат реагировать с помощью требований раскрытия информации, предложений по маркировке контента, стандартов происхождения и водяных знаков, а также целенаправленных мер по пресечению нарушений. Однако текущая система остается разрозненной, медленной и зачастую неясной. Как законодатели могут защитить создателей и потребителей, не подавляя инновации? Способны ли существующие правила идти в ногу с быстро меняющимся ландшафтом ИИ? Эти вопросы лежат в основе одного из самых актуальных дебатов в области технологий и творчества сегодня.
Одним из наиболее заметных скандалов, связанных с ИИ за последние годы, является Sympathy Tower Tokyo Рие Кудан, победитель премии Акутагавы 2024 года. Автор сообщил, что примерно 5% романа — в основном ответы чатбота внутри истории — были созданы с помощью ChatGPT. Это открытие вызвало дебаты о авторстве и прозрачности в литературе. Критики разделились: одни хвалили работу как инновационное использование ИИ для исследования языка и технологий, другие рассматривали это как вызов традиционным нормам оригинального авторства и литературной целостности. Освещение в крупных СМИ подчеркнуло темы книги — справедливость, эмпатию и социальные последствия ИИ — а также процедурные вопросы, связанные с использованием генеративных моделей в награждаемой работе, что вызвало призывы к более ясным стандартам раскрытия информации и пересмотру критериев награждения. Этот случай стал отправной точкой в более широких дискуссиях о творческом агентстве, авторском праве и этических границах использования ИИ в искусстве, с долгосрочными последствиями для издателей, жюри и норм авторства.
Еще один громкий инцидент связан с Darkhollow Academy: Year Two Лены Макдональд, где читатели обнаружили встроенную подсказку и заметку о редактировании, созданные ИИ, в третьей главе. Это случайное раскрытие показало, что автор использовал инструмент ИИ для имитации стиля другого писателя, вызвав мгновенную волну критики и широкое освещение. Этот случай подчеркнул ограничения текущих рабочих процессов в издательском деле и необходимость четких норм по использованию ИИ в написании текстов. Он усилил призывы к прозрачности, вызвал обсуждения о редакционном контроле и качестве, а также стал частью более широких дебатов о приписывании авторства, стилистическом имитировании и рисках интеллектуальной собственности в коммерческой фантастике.
В области визуальных искусств немецкий фотограф Борис Эльдагсен недавно вызвал скандал, когда изображение, которое он представил на премии Sony World Photography Awards, оказалось полностью создано ИИ. Работа изначально выиграла в категории Creative Open, что вызвало дебаты о границах между контентом, созданным ИИ, и традиционной фотографией. В конце концов фотограф отказался от награды, а критики и представители индустрии поставили под вопрос, как конкурсы должны относиться к работам, созданным с помощью ИИ или с использованием ИИ.
Регуляторы борются с вредом ИИ: ЕС, США, Великобритания и Италия внедряют риск-ориентированные рамки
Проблема вреда от использования ИИ — включая случаи, когда создатели представляют работу, созданную ИИ, как человеческое творчество — стала актуальной, и новые регуляторные рамки начинают ее решать.
Закон об ИИ Европейского союза устанавливает риск-ориентированную правовую основу, которая вступила в силу в 2024 году, с поэтапными обязательствами до 2026–2027 годов. Закон требует прозрачности для генеративных систем, включая маркировку контента, созданного ИИ, в определенных контекстах, проведение оценок рисков и управление высокорискованными применениями, а также наделяет Европейское агентство по ИИ и национальные регуляторы полномочиями по обеспечению соблюдения. Эти положения напрямую нацелены на проблемы, такие как нераскрытая медиа, созданная ИИ, и непрозрачное обучение моделей.
Национальные законодатели также быстро действуют в некоторых областях. Например, Италия в 2025 году приняла комплексный национальный закон об ИИ, вводящий более строгие штрафы за вредоносное использование, такое как deepfake-преступления, и закрепляющий требования прозрачности и человеческого контроля — демонстрируя, как местное законодательство может дополнять правила ЕС. Европейская комиссия одновременно разрабатывает необязательные инструменты и отраслевые кодексы практики, особенно для универсального ИИ, хотя внедрение сталкивается с задержками и сопротивлением отрасли, что отражает сложность создания своевременных и практичных правил для быстро развивающихся технологий.
Великобритания приняла «прогрессивный» регуляторный подход, сочетающий правительственные белые книги, отраслевые рекомендации от регуляторов, таких как Ofcom и ICO, и принципы надзора, подчеркивающие безопасность, прозрачность, справедливость и ответственность. Вместо внедрения единого кода, похожего на ЕС, власти Великобритании сосредоточены на рекомендациях и постепенном развитии возможностей надзора.
В США политики реализуют секторный, ведомственный подход, основанный на Исполнительном приказе 14110 от октября 2023 года, который координирует федеральные действия по безопасному, надежному и заслуживающему доверия ИИ. Такой подход делает акцент на управлении рисками, тестировании безопасности и целенаправленном регулировании, а межведомственные документы, такие как План действий по ИИ США, предоставляют рекомендации, стандарты и правила закупок, а не единый всеобъемлющий закон.
Мартин Касадо выступает за использование-ориентированное регулирование ИИ для защиты создателей без подавления инноваций
Для создателей и платформ практические последствия очевидны. Регуляторы требуют более строгого раскрытия информации, включая четкую маркировку контента, созданного ИИ, правила согласия при клонировании голоса и образа, стандарты происхождения и водяных знаков для сгенерированных медиа, а также более жесткие правила авторских прав и использования производных работ. Эти меры направлены на предотвращение подделки, защиту исполнителей и авторов, а также повышение ответственности платформ за потенциально вводящий в заблуждение контент — по сути, реализуя «ориентированный на использование» подход, рекомендованный партнером Andreessen Horowitz Мартином Касадо в эпизоде подкаста a16z.
Он утверждает, что политика должна сосредоточиться на том, как используется ИИ и какие конкретные вреды он может причинить, а не на контроле за развитием моделей ИИ, что быстро меняется, трудно определить и легко уклониться. Венчурный капиталист предупреждает, что чрезмерно широкие, ориентированные на развитие правила могут охладить открытые исследования и ослабить инновации.
Мартин Касадо подчеркивает, что преступные или вредоносные действия с использованием ИИ должны оставаться преследуемыми по существующим законам, а регулирование должно сначала обеспечить эффективное применение уголовных, потребительских, гражданских и антимонопольных статутов. Где есть пробелы, он выступает за новые законы, основанные на эмпирических данных и узконаправленные на конкретные риски, а не за широкие, спекулятивные мандаты, которые могут подавить технологический прогресс.
Эксперт считает важным сохранять открытость в развитии ИИ, например, поддерживая открытые модели, чтобы сохранить долгосрочные инновации и конкурентоспособность, одновременно делая регуляторные меры точными, практичными и сфокусированными на реальных вредах.