AI та Web3: виклики безпеки децентралізованої штучної інтелектуальної фінансової системи
Нещодавно, Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. На двох круглих столах кілька експертів галузі провели глибоке обговорення стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.
Експерти вказують, що з швидким розвитком великих мовних моделей (LLM) та AI-агентів формується абсолютно нова фінансова парадигма — Децентралізація штучного інтелекту у фінансах (DeFAI). Однак ця трансформація також приносить нові площини атаки та ризики безпеки.
Одний з керівників компанії з безпеки заявив: "DeFAI має великі перспективи, але це також змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу контексту, часу, навіть історичних взаємодій. Ця непередбачуваність не тільки посилює ризики, але й створює можливості для атакуючих."
"AI-агент" в основному є інтелектуальним агентом, здатним здійснювати автономні рішення та виконання на основі AI-логіки, зазвичай уповноваженим користувачем, протоколом або DAO. Найтиповішим представником є AI-торговий робот. На даний момент більшість AI-агентів працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак ін'єкцій, маніпуляцій з моделями або підробки даних. Якщо їх захоплять, це може призвести не лише до втрати коштів, але й суттєво вплинути на стабільність всього протоколу.
У форумі також згадувалися типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник публікує хибні тривоги, наприклад, "протокол піддається атаці", що може спонукати агента негайно розпочати екстрене очищення. Ця операція не лише призведе до втрати активів користувача, а й викличе коливання ринку, які зловмисники можуть використати через переднє торгівлю (Front Running).
Щодо вищезазначених ризиків, експерти загалом вважають, що безпека AI-агентів не повинна покладатися виключно на одну сторону, а є спільною відповідальністю користувачів, розробників та третіх сторін безпеки.
По-перше, користувачеві потрібно чітко розуміти обсяг прав, які має агент, обережно надавати права, а також звертати увагу на перевірку високоризикових операцій AI-агента. По-друге, розробники повинні реалізувати заходи захисту вже на етапі проектування, такі як: посилення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. А третьосторонні компанії з безпеки повинні надати незалежну перевірку поведінки моделей AI-агентів, інфраструктури та способів інтеграції в блокчейн, співпрацюючи з розробниками та користувачами для виявлення ризиків і запропонування заходів з їх пом'якшення.
Експерти попереджають: "Якщо продовжувати сприймати AI-агентів як 'чорну скриньку', то у реальному світі виникнення аварій безпеки є лише питанням часу." Для розробників, які досліджують напрямок DeFAI, він дає пораду: "Як і в випадку зі смарт-контрактами, логіка поведінки AI-агентів також реалізується кодом. Оскільки це код, є можливість атаки, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
IBW як одна з найвпливовіших децентралізованих конференцій у Європі, залучила більше 15 тисяч учасників з усього світу, включаючи розробників, проекти, інвесторів та регуляторів. Цього року, з офіційним запуском видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини (CMB), статус IBW у галузі ще більше зріс.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
14 лайків
Нагородити
14
6
Поділіться
Прокоментувати
0/400
SerumSquirter
· 07-13 18:19
25-ті невдахи це просто гарматне м'ясо.
Переглянути оригіналвідповісти на0
MetaverseLandlord
· 07-12 07:25
Знову розповідають про майбутнє, приятелі, не хвилюйтеся, ще не відомо, скільки проектів справжні, а скільки фальшиві.
Переглянути оригіналвідповісти на0
TokenAlchemist
· 07-12 07:25
мех... ще один вектор атаки для ботів MEV, які можуть ним скористатися. хтось відстежує показники неефективності?
Переглянути оригіналвідповісти на0
StakeOrRegret
· 07-12 07:24
Трохи переживаю за безпеку, що робити?
Переглянути оригіналвідповісти на0
HallucinationGrower
· 07-12 07:09
Ще одна хвиля фінансової піраміди розумних агентів наближається?? ctm
Переглянути оригіналвідповісти на0
MetamaskMechanic
· 07-12 07:02
Знову говорять про DeFAI, а зі смартконтрактами так і не розібралися.
DeFAI виникнення: безпекові виклики та стратегії реагування AI-агентів у Децентралізованих фінансах
AI та Web3: виклики безпеки децентралізованої штучної інтелектуальної фінансової системи
Нещодавно, Стамбульський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. На двох круглих столах кілька експертів галузі провели глибоке обговорення стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.
Експерти вказують, що з швидким розвитком великих мовних моделей (LLM) та AI-агентів формується абсолютно нова фінансова парадигма — Децентралізація штучного інтелекту у фінансах (DeFAI). Однак ця трансформація також приносить нові площини атаки та ризики безпеки.
Одний з керівників компанії з безпеки заявив: "DeFAI має великі перспективи, але це також змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, які базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу контексту, часу, навіть історичних взаємодій. Ця непередбачуваність не тільки посилює ризики, але й створює можливості для атакуючих."
"AI-агент" в основному є інтелектуальним агентом, здатним здійснювати автономні рішення та виконання на основі AI-логіки, зазвичай уповноваженим користувачем, протоколом або DAO. Найтиповішим представником є AI-торговий робот. На даний момент більшість AI-агентів працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до атак ін'єкцій, маніпуляцій з моделями або підробки даних. Якщо їх захоплять, це може призвести не лише до втрати коштів, але й суттєво вплинути на стабільність всього протоколу.
У форумі також згадувалися типовий сценарій атаки: коли AI-торговий агент, що працює у DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, зловмисник публікує хибні тривоги, наприклад, "протокол піддається атаці", що може спонукати агента негайно розпочати екстрене очищення. Ця операція не лише призведе до втрати активів користувача, а й викличе коливання ринку, які зловмисники можуть використати через переднє торгівлю (Front Running).
Щодо вищезазначених ризиків, експерти загалом вважають, що безпека AI-агентів не повинна покладатися виключно на одну сторону, а є спільною відповідальністю користувачів, розробників та третіх сторін безпеки.
По-перше, користувачеві потрібно чітко розуміти обсяг прав, які має агент, обережно надавати права, а також звертати увагу на перевірку високоризикових операцій AI-агента. По-друге, розробники повинні реалізувати заходи захисту вже на етапі проектування, такі як: посилення підказок, ізоляція в пісочниці, обмеження швидкості та логіка відкату. А третьосторонні компанії з безпеки повинні надати незалежну перевірку поведінки моделей AI-агентів, інфраструктури та способів інтеграції в блокчейн, співпрацюючи з розробниками та користувачами для виявлення ризиків і запропонування заходів з їх пом'якшення.
Експерти попереджають: "Якщо продовжувати сприймати AI-агентів як 'чорну скриньку', то у реальному світі виникнення аварій безпеки є лише питанням часу." Для розробників, які досліджують напрямок DeFAI, він дає пораду: "Як і в випадку зі смарт-контрактами, логіка поведінки AI-агентів також реалізується кодом. Оскільки це код, є можливість атаки, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
IBW як одна з найвпливовіших децентралізованих конференцій у Європі, залучила більше 15 тисяч учасників з усього світу, включаючи розробників, проекти, інвесторів та регуляторів. Цього року, з офіційним запуском видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини (CMB), статус IBW у галузі ще більше зріс.