Випадок для регулювання глибоких фейків

Коротко

Діпфейки, які колись були новинкою, швидко еволюціонували в системну загрозу для бізнесу, суспільства та демократії — вимагаючи термінового регулювання, надійних інструментів виявлення та підвищення медійної грамотності для захисту довіри в цифровому світі.

Аргументи на користь регулювання дипфейків

Глибинні фейки більше не є новинкою. Вони швидко стають системною загрозою для бізнесу, суспільства та демократії. За даними Європейського парламенту, в 2025 році буде поділено близько 8 мільйонів глибинних фейків, порівняно з лише 0,5 мільйона у 2023 році. У Великій Британії двоє з п'яти людей стверджують, що стикалися принаймні з одним глибинним фейком за останні шість місяців. Але якщо раніше їх можна було відносно легко виявити, то зростаюча складність загальнодоступних моделей штучного інтелекту зробила виявлення складнішим, ніж будь-коли.

Прогрес у генеративних змагальних мережах (GANs) та дифузійних моделях став каталізатором зростання розвинених, гіперреалістичних дипфейків. Обидві технології були важливими для забезпечення безшовної заміни обличчя та модулювання голосу під час живих відеодзвінків чи трансляцій. Це значно покращило досвід користувачів, з можливостями такими, як віртуальні аватари, що роблять ігри та зустрічі більш персоналізованими та занурюючими. Але це також відкрило двері для шахрайства з імперсонацією в реальному часі.

Ви можете подумати, що тільки непосвячені не можуть розпізнати імітацію когось, кого вони добре знають і довіряють. Але в травні минулого року група шахраїв видавала себе за старшого менеджера інженерної фірми Arup, успішно переконавши співробітника фінансового відділу перевести 200 млн гонконгських доларів на п’ять місцевих банківських рахунків. Подібні атаки, які імітують старших співробітників і генеральних директорів, були здійснені проти таких компаній, як Ferrari, WPP і Wiz протягом останніх 12 місяців, підриваючи довіру до цифрових комунікацій.

Клонування голосу також зросло разом із дипфейками. Синтез голосу на основі ШІ тепер здатний відтворювати людський голос з вражаючою точністю. Дивовижно, але кілька секунд аудіо достатньо, щоб створити майже ідеальний клон. Це може бути чудово для різноманітних творчих застосувань, таких як персоналізовані аудіокниги чи дубляж, але це має потенціал завдати величезної шкоди.

У липні цього року жінку у Флориді обманом змусили передати 15 тис. доларів США на заставу після того, як вона почула, як, на її думку, її донька кликала на допомогу після автомобільної аварії. Дзвонить, штучний інтелект-клон, який діяв як її донька, врешті-решт передав дзвінок так званому адвокатові, який надав інструкції для переказу. Той факт, що ці клони створюються лише з уривків голосів людей, які можна легко знайти через соціальні мережі, підкреслює потенціал для зловживання.

У соціальних мережах межа між реальністю та вигадкою розмивається. Віртуальні інфлюенсери, створені за допомогою штучного інтелекту, домінують у світі онлайн-маркетингу, пропонуючи брендам повністю контрольовані персоналії. Тепер аудиторії повинні орієнтуватися у світі, де легітимні та штучні особистості практично не відрізняються, що викликає питання про автентичність у медіа. У Голлівуді глибокі фейки використовуються для зменшення віку акторів або відтворення історичних постатей. Хоча це надає продюсерським компаніям можливість покращити якість свого контенту за відносно низькою ціною, це також дає шахраям засоби для відтворення переконливого образу знаменитостей і використання його для створення контроверсій.

Але ставки значно вищі, ніж неправдиве подання знаменитостей. Діпфейки можуть бути використані для посилення політичного розділення, поширюючи фальшиві наративи або фабрикуючи відео політичних діячів із вигаданими промовами. Наслідки можуть бути глибокими, змінюючи громадську думку, змінюючи хід національних виборів і потенційно отруюючи глобальний політичний дискурс.

Стикаючись з такою кількістю загроз, уряди по всьому світу реагують. У Європі Закон про штучний інтелект містить положення про обов'язкову маркування контенту, створеного або зміненого за допомогою ШІ, який має бути помічений як такий, щоб користувачі були обізнані про його походження. Хоча закон не забороняє глибокі фейки, він забороняє використання систем ШІ, які приховано маніпулюють людьми в певних контекстах. Деякі уряди або активно використовують, або інвестують у технології виявлення, які можуть ідентифікувати тонкі зміни в голосах, обличчях або зображеннях.

Але регулювання все ще відстає від технологій. Обов'язкове маркування, алгоритми виявлення артефактів ШІ та аудіо-судово-технічна експертиза є важливою частиною рішення, але для подолання загрози глибоких фейків потрібна набагато ширша та комплексніша стратегія. Надійне регулювання та етичні норми, разом із інвестиціями в медіаграмотність, мають таку ж, якщо не більшу, роль у боротьбі з шахрайством на основі глибоких фейків та дезінформацією.

Регуляція та етичні норми повинні стати більш проактивними, з ознаками водяного знака та обов'язковими стандартами розкриття, які стають звичними елементами будь-якої стратегії глибоких фейків. Водночас медіа-грамотність повинна бути пріоритетом. Громадяни повинні бути озброєні навичками критичного мислення, щоб ставити під сумнів те, що вони бачать і чують. Лише спільними зусиллями регуляторів, приватного сектору та громадянського суспільства ми зможемо захистити цифрове життя та забезпечити, щоб загроза глибоких фейків стала справою минулого.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити