AI и Web3: вызовы безопасности децентрализованного искусственного интеллекта в финансах
В недавнем времени Стамбульская неделя блокчейна (IBW 2025) сосредоточила внимание на тенденции интеграции AI и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. На двух круглых столах множество отраслевых экспертов провели глубокое обсуждение текущего состояния применения AI-технологий в Децентрализация финансах (DeFi) и связанных с ними проблем безопасности.
Эксперты отмечают, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется совершенно новая финансовая парадигма — Децентрализация Искусственного Интеллекта Финансов (DeFAI). Однако эта трансформация также создает новые уязвимости и угрозы безопасности.
Один из руководителей компании по безопасности заявил: "DeFAI имеет большие перспективы, но также заставляет нас пересмотреть механизмы доверия в Децентрализация системах. В отличие от смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентов зависит от контекста, времени и даже исторического взаимодействия. Эта непредсказуемость не только усугубляет риски, но и создает возможности для злоумышленников."
"AI-агенты" по сути представляют собой интеллектуальные системы, способные принимать автономные решения и выполнять их на основе AI-логики, обычно работающие на основании полномочий пользователей, протоколов или DAO. Наиболее ярким представителем являются AI-торговые роботы. В настоящее время большинство AI-агентов функционируют на базе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми к инъекционным атакам, манипуляциям с моделями или изменениям данных. В случае захвата это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.
В форуме также упоминалась типичная ситуация атаки: когда AI-торговый агент, работающий у пользователя DeFi, отслеживает сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложное предупреждение, например, "некоторый протокол подвергся атаке", что может заставить агента немедленно запустить экстренную ликвидацию. Эта операция не только приведет к потере активов пользователя, но и вызовет колебания на рынке, которые затем могут быть использованы злоумышленником через предварительную торговлю (Front Running).
В связи с вышеупомянутыми рисками эксперты в целом считают, что безопасность AI-агентов не должна возлагаться на какую-либо одну сторону, а является общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью.
Во-первых, пользователи должны четко понимать объем полномочий, которыми обладает агент, осторожно предоставляя права, а также обращать внимание на проверку высокорисковых операций AI-агента. Во-вторых, разработчики должны внедрять меры защиты на этапе проектирования, такие как: усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. В-третьих, сторонние компании по безопасности должны предоставлять независимую проверку поведения моделей AI-агентов, инфраструктуры и способов интеграции на блокчейне, а также сотрудничать с разработчиками и пользователями для выявления рисков и выработки мер по их снижению.
Эксперты предупреждают: "Если продолжать рассматривать AI-агентов как 'черный ящик', то происшествия в реальном мире — это лишь вопрос времени." Для разработчиков, исследующих направление DeFAI, он дает совет: "Как и в случае со смарт-контрактами, логика поведения AI-агентов также реализуется с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходима профессиональная проверка безопасности и тестирование на проникновение."
IBW как одно из самых влиятельных мероприятий в области блокчейна в Европе, в общей сложности привлекло более 15 тысяч участников, включая разработчиков, проекты, инвесторов и регуляторов со всего мира. В этом году, с официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капиталовложениям Турции (CMB), позиция IBW в отрасли была дополнительно укреплена.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
14 Лайков
Награда
14
6
Поделиться
комментарий
0/400
SerumSquirter
· 07-13 18:19
25的小неудачники就是个炮灰啊
Посмотреть ОригиналОтветить0
MetaverseLandlord
· 07-12 07:25
Снова говорят о будущем, приятели, не волнуйтесь, еще не известно, сколько проектов настоящие, а сколько фальшивые.
Посмотреть ОригиналОтветить0
TokenAlchemist
· 07-12 07:25
meh... еще один вектор атаки для MEV-роботов, чтобы эксплуатировать. кто-нибудь следит за метриками неэффективности?
Посмотреть ОригиналОтветить0
StakeOrRegret
· 07-12 07:24
Я немного беспокоюсь о безопасности, что делать?
Посмотреть ОригиналОтветить0
HallucinationGrower
· 07-12 07:09
Еще одна волна инвестиционного фонда для интеллектуальных агентов приближается?? ctm
Посмотреть ОригиналОтветить0
MetamaskMechanic
· 07-12 07:02
Снова говорят о DeFAI, а смарт-контракты так и не поняли.
Восход DeFAI: Безопасные вызовы и стратегии реагирования AI-агентов в Децентрализованных финансах
AI и Web3: вызовы безопасности децентрализованного искусственного интеллекта в финансах
В недавнем времени Стамбульская неделя блокчейна (IBW 2025) сосредоточила внимание на тенденции интеграции AI и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. На двух круглых столах множество отраслевых экспертов провели глубокое обсуждение текущего состояния применения AI-технологий в Децентрализация финансах (DeFi) и связанных с ними проблем безопасности.
Эксперты отмечают, что с быстрым развитием больших языковых моделей (LLM) и AI-агентов формируется совершенно новая финансовая парадигма — Децентрализация Искусственного Интеллекта Финансов (DeFAI). Однако эта трансформация также создает новые уязвимости и угрозы безопасности.
Один из руководителей компании по безопасности заявил: "DeFAI имеет большие перспективы, но также заставляет нас пересмотреть механизмы доверия в Децентрализация системах. В отличие от смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентов зависит от контекста, времени и даже исторического взаимодействия. Эта непредсказуемость не только усугубляет риски, но и создает возможности для злоумышленников."
"AI-агенты" по сути представляют собой интеллектуальные системы, способные принимать автономные решения и выполнять их на основе AI-логики, обычно работающие на основании полномочий пользователей, протоколов или DAO. Наиболее ярким представителем являются AI-торговые роботы. В настоящее время большинство AI-агентов функционируют на базе архитектуры Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми к инъекционным атакам, манипуляциям с моделями или изменениям данных. В случае захвата это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.
В форуме также упоминалась типичная ситуация атаки: когда AI-торговый агент, работающий у пользователя DeFi, отслеживает сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложное предупреждение, например, "некоторый протокол подвергся атаке", что может заставить агента немедленно запустить экстренную ликвидацию. Эта операция не только приведет к потере активов пользователя, но и вызовет колебания на рынке, которые затем могут быть использованы злоумышленником через предварительную торговлю (Front Running).
В связи с вышеупомянутыми рисками эксперты в целом считают, что безопасность AI-агентов не должна возлагаться на какую-либо одну сторону, а является общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью.
Во-первых, пользователи должны четко понимать объем полномочий, которыми обладает агент, осторожно предоставляя права, а также обращать внимание на проверку высокорисковых операций AI-агента. Во-вторых, разработчики должны внедрять меры защиты на этапе проектирования, такие как: усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. В-третьих, сторонние компании по безопасности должны предоставлять независимую проверку поведения моделей AI-агентов, инфраструктуры и способов интеграции на блокчейне, а также сотрудничать с разработчиками и пользователями для выявления рисков и выработки мер по их снижению.
Эксперты предупреждают: "Если продолжать рассматривать AI-агентов как 'черный ящик', то происшествия в реальном мире — это лишь вопрос времени." Для разработчиков, исследующих направление DeFAI, он дает совет: "Как и в случае со смарт-контрактами, логика поведения AI-агентов также реализуется с помощью кода. Поскольку это код, он может быть подвержен атакам, поэтому необходима профессиональная проверка безопасности и тестирование на проникновение."
IBW как одно из самых влиятельных мероприятий в области блокчейна в Европе, в общей сложности привлекло более 15 тысяч участников, включая разработчиков, проекты, инвесторов и регуляторов со всего мира. В этом году, с официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капиталовложениям Турции (CMB), позиция IBW в отрасли была дополнительно укреплена.