ЗМІ дізналися про використання ІІ-інструменту Claude у військовій операції з захоплення Мадуро - ForkLog: криптовалюти, ІІ, сингулярність, майбутнє

применение ии в войне AI in war# ЗМІ дізналися про використання інструменту ШІ Claude у військовій операції з захоплення Мадуро

Армія США залучила Claude від Anthropic у операції з захоплення президента Венесуели Ніколаса Мадуро. Про це пише WSJ із посиланням на джерела.

Місія включала бомбардування кількох об’єктів у Каракасі

Використання моделі в подібних цілях суперечить публічній політиці Anthropic. Правила компанії прямо забороняють застосовувати ШІ для насильства, розробки озброєнь або організації стеження.

«Ми не можемо коментувати, чи використовувався Claude або якась інша модель у конкретній операції — секретній чи іншій. Будь-яке застосування LLM — як у приватному секторі, так і в державних структурах — має відповідати нашій політиці, яка регулює способи розгортання нейромережі. Ми тісно співпрацюємо з партнерами, щоб забезпечити дотримання правил», — заявив представник Anthropic.

Впровадження Claude у структури Міноборони стало можливим завдяки партнерству Anthropic із Palantir Technologies. Програмне забезпечення останніх широко використовується військовими та федеральними правоохоронними органами.

Після рейду співробітник Anthropic поцікавився у колеги з Palantir, яку саме роль нейромережа відіграла в операції з захоплення Мадуро, пише WSJ. Представник стартапу заявив, що компанія не обговорювала застосування своїх моделей у конкретних місіях «з жодними партнерами, включно з Palantir», обмежуючись лише технічними питаннями.

«Anthropic прагне до використання передового ШІ у підтримку національної безпеки США», — додав представник компанії.

Anthropic проти Пентагону?

Представник Пентагону Шон Парнелл заявив про перегляд відносин із лабораторією ШІ.

«Нашій країні потрібні партнери, готові допомагати бійцям перемагати у будь-якій війні», — сказав він.

У липні 2025 року Міністерство оборони США уклало контракти на суму до 200 мільйонів доларів із Anthropic, Google, OpenAI та xAI на розробку рішень із ШІ у сфері безпеки. Головне управління цифрових та ІІ-технологій відомства планувало використовувати їхні розробки для створення агентних систем безпеки.

Однак уже в січні 2026 року WSJ повідомила про ризик розірвання угоди з Anthropic. Розбіжності виникли через жорстку етичну політику стартапу. Правила забороняють використовувати Claude для масового стеження та автономних летальних операцій, що обмежує її застосування спецслужбами, такими як ICE і ФБР.

Незадоволення чиновників посилилося на тлі інтеграції чат-бота Grok у мережу Пентагону. Міністр оборони Піт Хейґсет, коментуючи партнерство з xAI, підкреслив, що відомство «не буде використовувати моделі, які не дозволяють вести війни».

Тиск на розробників

Axios із посиланням на джерела повідомив, що Пентагон тисне на чотири великі компанії ШІ, щоб вони дозволили армії США використовувати технології для «усіх законних цілей». Йдеться зокрема про розробку озброєнь, збирання розвідувальних даних і бойові операції.

Anthropic відмовляється знімати обмеження на стеження за громадянами США і створення повністю автономної зброї. Переговори зайшли в глухий кут, проте швидко замінити Claude важко через технологічну перевагу моделі у специфічних державних завданнях.

Крім чат-бота Anthropic, Пентагон використовує ChatGPT від OpenAI, Gemini від Google і Grok від xAI у несекретних задачах. Всі троє погодилися послабити обмеження, що діють для звичайних користувачів.

Зараз обговорюється перенесення LLM у секретний контур і їх застосування «для всіх законних цілей». Одна з трьох компаній уже погодилася це зробити, інші дві «проявляють більшу гнучкість» порівняно з Anthropic.

Мілітаризація ШІ

США — не єдина країна, яка активно впроваджує штучний інтелект у оборонний сектор.

Китай

У червні 2024 року в КНР створили представлення ШІ-командувача для масштабних військових симуляцій із участю всіх видів військ НОАК. Віртуальний стратег має широкі повноваження, швидко навчається і вдосконалює тактику під час цифрових навчань.

У листопаді ЗМІ повідомили, що китайські дослідники адаптували модель Llama 13B від Meta для створення інструменту ChatBIT. Нейромережу оптимізували для збору та аналізу розвідувальних даних, а також підтримки прийняття оперативних рішень.

Індія

Нью-Делі також зробив ставку на ШІ як драйвер національної безпеки. Уряд розробив стратегії та програми на національному рівні, створив спеціальні інститути та органи для впровадження ШІ, а також запустив проекти з застосування технології в різних галузях.

Великобританія

Лондон закріпив за штучним інтелектом статус пріоритетного напрямку. У «Стратегії ШІ для оборони» (2022) відомство розглядає ШІ як ключовий компонент майбутніх збройних сил. У «Стратегічному оборонному огляді» (2025) технологія названа фундаментальним елементом сучасної війни.

Якщо раніше штучний інтелект у військовому контексті сприймався як допоміжний інструмент, то тепер британські Збройні сили планують трансформацію у «технологічно інтегровані сили», де системи ШІ мають застосовуватися на всіх рівнях — від штабної аналітики до поля бою.

Нагадаємо, у березні 2025 року Пентагон анонсував використання агентів ШІ для моделювання зіткнень із іноземними противниками.

XAI-1,97%
GROK0,39%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити