Глубокие фейки, когда-то новшество, быстро превратились в системную угрозу для бизнеса, общества и демократии — требуя срочного регулирования, надежных инструментов обнаружения и более высокого уровня медиаграмотности для защиты доверия в цифровом мире.
Глубокие фейки больше не являются новинкой. Они быстро становятся системной угрозой для бизнеса, общества и демократии. Согласно Европейскому парламенту, в 2025 году будет распространено около 8 миллионов глубоких фейков, по сравнению с всего 0,5 миллиона в 2023 году. В Великобритании двое из пяти человек утверждают, что наткнулись хотя бы на один глубокий фейк за последние шесть месяцев. Но если раньше их было относительно легко распознать, то растущая сложность общедоступных моделей ИИ сделала обнаружение более сложным, чем когда-либо.
Развитие генеративных состязательных сетей (GANs) и диффузионных моделей стало катализатором роста продвинутых, гиперреалистичных дипфейков. Обе технологии сыграли ключевую роль в обеспечении бесшовного замены лиц и модуляции голоса в видеозвонках или потоках. Это значительно улучшило пользовательский опыт благодаря таким возможностям, как виртуальные аватары, что сделало игры и встречи более персонализированными и погружающими. Но это также открыло двери для мошенничества с имп impersonation в реальном времени.
Вы можете подумать, что только неопытные люди не смогут распознать выдачу себя за кого-то, кого они хорошо знают и кому доверяют. Но в мае прошлого года группа мошенников выдала себя за старшего менеджера инженерной компании Arup, успешно убедив сотрудника финансового отдела перевести 200 миллионов гонконгских долларов на пять местных банковских счетов. Подобные атаки, выдающие себя за старших сотрудников и генеральных директоров, были направлены против таких компаний, как Ferrari, WPP и Wiz за последние 12 месяцев, подрывая доверие к цифровым коммуникациям.
Клонирование голоса также стремительно развивалось наряду с дипфейками. Искусственный интеллект, создающий звук, теперь способен воспроизводить человеческий голос с поразительной точностью. Удивительно, но всего несколько секунд аудио достаточно, чтобы создать почти идеальный клон. Это может быть прекрасно для различных творческих целей, таких как персонализированные аудиокниги или дубляж, но это также может причинить огромный вред.
В июле этого года женщина во Флориде была обманута и передала 15 тысяч долларов в качестве залога, услышав, как, по ее мнению, ее дочь зовет на помощь после автокатастрофы. Звонивший, ИИ-клон, действующий как ее дочь, в конечном итоге передал звонок якобы адвокату, который дал инструкции по переводу. Тот факт, что эти клоны создаются всего лишь на основе фрагментов голосов людей, которые можно легко найти через социальные сети, подчеркивает потенциал для злоупотреблений.
В социальных сетях граница между реальностью и вымыслом стирается. Созданные с помощью ИИ виртуальные инфлюенсеры доминируют в онлайн-маркетинге, предлагая брендам полностью контролируемые образы. Теперь аудитории приходится ориентироваться в мире, где легитимные и искусственные личности практически неотличимы друг от друга, что поднимает вопросы о подлинности в медиа. В Голливуде дипфейки используются для омоложения актеров или воссоздания исторических фигур. Хотя это дает производственным компаниям возможность улучшить качество своего контента относительно низкой стоимостью, это также предоставляет мошенникам средства для воспроизведения убедительного образа известных знаменитостей и использования его для создания скандалов.
Но ставки намного выше, чем просто искажение образа знаменитостей. Дипфейки могут использоваться для сеяния политического раскола, распространяя ложные нарративы или подделывая видео с политическими фигурами, произносящими фальшивые речи. Последствия могут быть глубокомысленными, влияя на общественное мнение, изменяя ход национальных выборов и потенциально отравляя глобический политический дискурс.
Столкнувшись с таким количеством угроз, правительства по всему миру реагируют. В Европе Закон об ИИ содержит положение о обязательной маркировке контента, созданного или измененного с помощью ИИ, который должен быть помечен как таковой, чтобы пользователи были осведомлены о его происхождении. Хотя закон не запрещает дипфейки, он запрещает использование ИИ-систем, которые скрытно манипулируют людьми в определенных контекстах. Некоторые правительства либо активно используют, либо инвестируют в технологии обнаружения, которые могут идентифицировать тонкие изменения в голосах, лицах или изображениях.
Но регулирование все еще отстает от технологий. Обязательная маркировка, алгоритмы обнаружения искусственного интеллекта и аудиофорензика являются важной частью решения, но для подавления угрозы дипфейков требуется гораздо более широкая и комплексная стратегия. Надежное регулирование и этические нормы, вместе с инвестициями в медиаграмотность, имеют равную, если не большую, роль в борьбе с мошенничеством и дезинформацией, связанными с дипфейками.
Регулирование и этические нормы должны стать более проактивными, при этом водяные знаки и обязательные стандарты раскрытия информации должны стать обычными элементами любой стратегии по использованию дипфейков. В то же время медиа-грамотность должна рассматриваться как приоритет. Граждане должны обладать критическим мышлением, чтобы ставить под сомнение то, что они видят и слышат. Только работая вместе, между регуляторами, частным сектором и гражданским обществом, мы можем защитить цифровую жизнь и гарантировать, что угроза дипфейков станет делом прошлого.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Необходимость регулирования дипфейков
Кратко
Глубокие фейки, когда-то новшество, быстро превратились в системную угрозу для бизнеса, общества и демократии — требуя срочного регулирования, надежных инструментов обнаружения и более высокого уровня медиаграмотности для защиты доверия в цифровом мире.
Глубокие фейки больше не являются новинкой. Они быстро становятся системной угрозой для бизнеса, общества и демократии. Согласно Европейскому парламенту, в 2025 году будет распространено около 8 миллионов глубоких фейков, по сравнению с всего 0,5 миллиона в 2023 году. В Великобритании двое из пяти человек утверждают, что наткнулись хотя бы на один глубокий фейк за последние шесть месяцев. Но если раньше их было относительно легко распознать, то растущая сложность общедоступных моделей ИИ сделала обнаружение более сложным, чем когда-либо.
Развитие генеративных состязательных сетей (GANs) и диффузионных моделей стало катализатором роста продвинутых, гиперреалистичных дипфейков. Обе технологии сыграли ключевую роль в обеспечении бесшовного замены лиц и модуляции голоса в видеозвонках или потоках. Это значительно улучшило пользовательский опыт благодаря таким возможностям, как виртуальные аватары, что сделало игры и встречи более персонализированными и погружающими. Но это также открыло двери для мошенничества с имп impersonation в реальном времени.
Вы можете подумать, что только неопытные люди не смогут распознать выдачу себя за кого-то, кого они хорошо знают и кому доверяют. Но в мае прошлого года группа мошенников выдала себя за старшего менеджера инженерной компании Arup, успешно убедив сотрудника финансового отдела перевести 200 миллионов гонконгских долларов на пять местных банковских счетов. Подобные атаки, выдающие себя за старших сотрудников и генеральных директоров, были направлены против таких компаний, как Ferrari, WPP и Wiz за последние 12 месяцев, подрывая доверие к цифровым коммуникациям.
Клонирование голоса также стремительно развивалось наряду с дипфейками. Искусственный интеллект, создающий звук, теперь способен воспроизводить человеческий голос с поразительной точностью. Удивительно, но всего несколько секунд аудио достаточно, чтобы создать почти идеальный клон. Это может быть прекрасно для различных творческих целей, таких как персонализированные аудиокниги или дубляж, но это также может причинить огромный вред.
В июле этого года женщина во Флориде была обманута и передала 15 тысяч долларов в качестве залога, услышав, как, по ее мнению, ее дочь зовет на помощь после автокатастрофы. Звонивший, ИИ-клон, действующий как ее дочь, в конечном итоге передал звонок якобы адвокату, который дал инструкции по переводу. Тот факт, что эти клоны создаются всего лишь на основе фрагментов голосов людей, которые можно легко найти через социальные сети, подчеркивает потенциал для злоупотреблений.
В социальных сетях граница между реальностью и вымыслом стирается. Созданные с помощью ИИ виртуальные инфлюенсеры доминируют в онлайн-маркетинге, предлагая брендам полностью контролируемые образы. Теперь аудитории приходится ориентироваться в мире, где легитимные и искусственные личности практически неотличимы друг от друга, что поднимает вопросы о подлинности в медиа. В Голливуде дипфейки используются для омоложения актеров или воссоздания исторических фигур. Хотя это дает производственным компаниям возможность улучшить качество своего контента относительно низкой стоимостью, это также предоставляет мошенникам средства для воспроизведения убедительного образа известных знаменитостей и использования его для создания скандалов.
Но ставки намного выше, чем просто искажение образа знаменитостей. Дипфейки могут использоваться для сеяния политического раскола, распространяя ложные нарративы или подделывая видео с политическими фигурами, произносящими фальшивые речи. Последствия могут быть глубокомысленными, влияя на общественное мнение, изменяя ход национальных выборов и потенциально отравляя глобический политический дискурс.
Столкнувшись с таким количеством угроз, правительства по всему миру реагируют. В Европе Закон об ИИ содержит положение о обязательной маркировке контента, созданного или измененного с помощью ИИ, который должен быть помечен как таковой, чтобы пользователи были осведомлены о его происхождении. Хотя закон не запрещает дипфейки, он запрещает использование ИИ-систем, которые скрытно манипулируют людьми в определенных контекстах. Некоторые правительства либо активно используют, либо инвестируют в технологии обнаружения, которые могут идентифицировать тонкие изменения в голосах, лицах или изображениях.
Но регулирование все еще отстает от технологий. Обязательная маркировка, алгоритмы обнаружения искусственного интеллекта и аудиофорензика являются важной частью решения, но для подавления угрозы дипфейков требуется гораздо более широкая и комплексная стратегия. Надежное регулирование и этические нормы, вместе с инвестициями в медиаграмотность, имеют равную, если не большую, роль в борьбе с мошенничеством и дезинформацией, связанными с дипфейками.
Регулирование и этические нормы должны стать более проактивными, при этом водяные знаки и обязательные стандарты раскрытия информации должны стать обычными элементами любой стратегии по использованию дипфейков. В то же время медиа-грамотность должна рассматриваться как приоритет. Граждане должны обладать критическим мышлением, чтобы ставить под сомнение то, что они видят и слышат. Только работая вместе, между регуляторами, частным сектором и гражданским обществом, мы можем защитить цифровую жизнь и гарантировать, что угроза дипфейков станет делом прошлого.