Останнє дослідження Anthropic вказує на те, що можливості AI для мережевих атак швидко наближаються до можливостей людських хакерів. Включаючи такі моделі, як GPT-5 та Claude Opus, вже вдалося відтворити понад 200 історичних атак на смарт-контракти, а також знайти невідомі раніше вразливості нульового дня на BNB Chain. Експерти попереджають, що низька вартість, висока ефективність і автоматизовані характеристики AI дозволять масштабно відтворювати атакуючі дії, що також означає, що темп оборони та атак у сфері інформаційної безпеки Web3 зазнає повної трансформації.
Ера AI-хакерів настала: 10 великих моделей успішно відтворили понад 200 випадків атак на ланцюгах
Anthropic оголосила про оцінку безпеки 10 передових AI моделей, включаючи GPT-5, Claude Opus 4.5, DeepSeek V3 та Llama 3.
Дослідження показують, що ШІ вже зміг успішно відтворити 207 з 405 історичних атак, змоделювавши збитки в 550 мільйонів доларів. У більш ніж половині випадків він демонструє результати, що порівнянні з досвідченими людськими хакерами. Це свідчить про те, що ШІ вже повністю розуміє та виконує процеси атак і логіку експлуатації вразливостей.
Від відтворення до виявлення: GPT-5 та Claude можуть виявити нульові вразливості в протоколах
У більш складному тестуванні «нульового дня (zero-day vulnerability)» Anthropic дозволив моделі просканувати 2,849 нових контрактів, витягнутих з 9,4 мільйона контрактів BNB Chain.
Результати виявилися несподіваними: Claude Sonnet 4.5 та GPT-5 кожен виявив два непублічні дефекти і успішно отримали приблизно 3,694 доларів США у симульованому прибутку в середовищі пісочниці. Це означає, що ШІ не тільки може імітувати атаки, але й має здатність «активно виявляти» невідомі слабкості.
( Китайські хакери використовують AI-агентів для самостійного вторгнення в 30 глобальних установ, Anthropic терміново попереджає )
Чому атаки ШІ легко поширюються? Відкрита культура стає ключем.
З огляду на причини, чому масштаби атак AI можуть швидко розширюватися, операційний директор SovereignAI Девід Швед пояснив, що через велику кількість публічно доступних аудитів та звітів про вразливості на ринку, а також існування різних версій проектів, перевага швидкого перегляду та порівняння AI в цей момент може ще більше збільшувати масштаби.
Простішим підходом є знайти вже виявлену уразливість, а потім виявити проекти, схожі за архітектурою, і спробувати використати цю уразливість, оскільки вона може ще не бути виправленою (patch).
Якщо можливості моделі продовжать зростати, атаки стануть відтворюваними, і в той час вони також перейдуть до автоматизації та масштабування, різниця у швидкості між нападниками та захисниками лише зросте.
Захисники також можуть озброїтися штучним інтелектом: атаки швидші, виправлення також має бути швидшим.
Anthropic підкреслює, що здатність AI використовувати інструменти, виправляти помилки та планувати завдання на тривалі сегменти швидко еволюціонує, що суттєво підвищує швидкість і успішність атаки; але аналогічні досягнення можуть бути застосовані і в обороні.
Швед вважає, що за умови впровадження ретельного тестування, миттєвого моніторингу та механізмів блокування в певних інтервалах, ШІ насправді може поставити білих капелюшків і зловмисників на одну стартову лінію. Він підкреслив: «Те, що можуть зробити погані люди, можуть зробити і хороші. Ми просто повинні змінити спосіб мислення.»
(США FBI попереджає про зростання «кіберфізичних атак», що здійснюються за допомогою ШІ, які становлять серйозну загрозу для інфраструктури)
Ця стаття AI-агент стає професійним хакером? Anthropic розкриває, що GPT-5, Claude можуть відтворювати моделі атак в мережі, вперше з'явившись у Chain News ABMedia.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
AI агент стає професійним хакером? Anthropic розкриває, що GPT-5, Claude можуть копіювати у блокчейні атакуючі моделі
Останнє дослідження Anthropic вказує на те, що можливості AI для мережевих атак швидко наближаються до можливостей людських хакерів. Включаючи такі моделі, як GPT-5 та Claude Opus, вже вдалося відтворити понад 200 історичних атак на смарт-контракти, а також знайти невідомі раніше вразливості нульового дня на BNB Chain. Експерти попереджають, що низька вартість, висока ефективність і автоматизовані характеристики AI дозволять масштабно відтворювати атакуючі дії, що також означає, що темп оборони та атак у сфері інформаційної безпеки Web3 зазнає повної трансформації.
Ера AI-хакерів настала: 10 великих моделей успішно відтворили понад 200 випадків атак на ланцюгах
Anthropic оголосила про оцінку безпеки 10 передових AI моделей, включаючи GPT-5, Claude Opus 4.5, DeepSeek V3 та Llama 3.
Дослідження показують, що ШІ вже зміг успішно відтворити 207 з 405 історичних атак, змоделювавши збитки в 550 мільйонів доларів. У більш ніж половині випадків він демонструє результати, що порівнянні з досвідченими людськими хакерами. Це свідчить про те, що ШІ вже повністю розуміє та виконує процеси атак і логіку експлуатації вразливостей.
Від відтворення до виявлення: GPT-5 та Claude можуть виявити нульові вразливості в протоколах
У більш складному тестуванні «нульового дня (zero-day vulnerability)» Anthropic дозволив моделі просканувати 2,849 нових контрактів, витягнутих з 9,4 мільйона контрактів BNB Chain.
Результати виявилися несподіваними: Claude Sonnet 4.5 та GPT-5 кожен виявив два непублічні дефекти і успішно отримали приблизно 3,694 доларів США у симульованому прибутку в середовищі пісочниці. Це означає, що ШІ не тільки може імітувати атаки, але й має здатність «активно виявляти» невідомі слабкості.
( Китайські хакери використовують AI-агентів для самостійного вторгнення в 30 глобальних установ, Anthropic терміново попереджає )
Чому атаки ШІ легко поширюються? Відкрита культура стає ключем.
З огляду на причини, чому масштаби атак AI можуть швидко розширюватися, операційний директор SovereignAI Девід Швед пояснив, що через велику кількість публічно доступних аудитів та звітів про вразливості на ринку, а також існування різних версій проектів, перевага швидкого перегляду та порівняння AI в цей момент може ще більше збільшувати масштаби.
Простішим підходом є знайти вже виявлену уразливість, а потім виявити проекти, схожі за архітектурою, і спробувати використати цю уразливість, оскільки вона може ще не бути виправленою (patch).
Якщо можливості моделі продовжать зростати, атаки стануть відтворюваними, і в той час вони також перейдуть до автоматизації та масштабування, різниця у швидкості між нападниками та захисниками лише зросте.
Захисники також можуть озброїтися штучним інтелектом: атаки швидші, виправлення також має бути швидшим.
Anthropic підкреслює, що здатність AI використовувати інструменти, виправляти помилки та планувати завдання на тривалі сегменти швидко еволюціонує, що суттєво підвищує швидкість і успішність атаки; але аналогічні досягнення можуть бути застосовані і в обороні.
Швед вважає, що за умови впровадження ретельного тестування, миттєвого моніторингу та механізмів блокування в певних інтервалах, ШІ насправді може поставити білих капелюшків і зловмисників на одну стартову лінію. Він підкреслив: «Те, що можуть зробити погані люди, можуть зробити і хороші. Ми просто повинні змінити спосіб мислення.»
(США FBI попереджає про зростання «кіберфізичних атак», що здійснюються за допомогою ШІ, які становлять серйозну загрозу для інфраструктури)
Ця стаття AI-агент стає професійним хакером? Anthropic розкриває, що GPT-5, Claude можуть відтворювати моделі атак в мережі, вперше з'явившись у Chain News ABMedia.