Команда Трампа обурена принциповою позицією Даріо Амоді щодо запобігання використанню Міністерством оборони його інструментів штучного інтелекту для воєнних цілей

Контракт Anthropic на 200 мільйонів доларів із Міністерством оборони опинився під питанням після того, як Anthropic нібито висловила занепокоєння щодо використання її моделі штучного інтелекту Claude у рамках рейду проти Ніколаса Мадуро у січні.

Рекомендоване відео


«Відносини Міністерства війни з Anthropic перебувають на розгляді», — заявив головний речник Пентагону Шон Парнел у заяві для Fortune. «Нашій країні потрібно, щоб наші партнери були готові допомагати нашим військовим перемагати у будь-якій боротьбі. В кінцевому підсумку, це стосується наших військових і безпеки американського народу.»

Напруженість зросла за останні тижні після того, як високопосадовець Anthropic нібито звернувся до старшого керівника Palantir із питанням щодо того, як використовувалася модель Claude під час рейду, повідомляє The Hill. Керівник Palantir сприйняв цей контакт як засудження використання моделі під час рейду і передав деталі обміну до Пентагону. (Президент Трамп заявив, що військові застосували під час рейду зброю «дезорієнтації», яка зробила обладнання ворога «нефункціональним».)

«Anthropic не обговорювала використання Claude для конкретних операцій із Міністерством війни», — заявив представник Anthropic у коментарі для Fortune. «Ми також не обговорювали це з будь-якими галузевими партнерами, окрім рутинних технічних обговорень.»

Цей конфлікт зосереджений навколо контрактних обмежень, що регулюють використання моделей штучного інтелекту у військових операціях. Генеральний директор Anthropic Даріо Амодей послідовно виступає за суворі обмеження щодо використання та регулювання ШІ, навіть визнаючи, що баланс між безпекою та прибутками стає складним. Уже кілька місяців компанія та Міноборони ведуть напружені переговори щодо того, як можна використовувати Claude у військових операціях.

За умовами контракту з Міноборони Anthropic не дозволяє Пентагону використовувати свої моделі ШІ для масового спостереження за американцями або застосування технологій у повністю автономній зброї. Компанія також заборонила використання своїх технологій у «смертельних» або «кінетичних» військових цілях. Безпосередня участь у активному вогневому зіткненні під час рейду Мадуро ймовірно порушила б ці умови.

Серед компаній, що уклали контракти з урядом, включаючи OpenAI, Google та xAI, Anthropic займає вигідну позицію, оскільки є єдиною великою мовною моделлю, яка дозволена на секретних мережах Пентагону.

Цю позицію підкреслили в заяві Anthropic для Fortune. «Claude використовується для широкого спектра розвідувальних задач у державних структурах, зокрема у Міноборони, відповідно до нашої Політики використання.»

Компанія «зобов’язується використовувати передовий ШІ у підтримку національної безпеки США», — йдеться у заяві. «Ми ведемо продуктивні, добросовісні переговори з Міноборони щодо подальшої роботи та правильного врегулювання цих складних питань.»

Palantir, OpenAI, Google та xAI не одразу відповіли на запит про коментар.

Штучний інтелект і війна

Хоча Міноборони прискорює інтеграцію ШІ у свої операції, лише xAI надало дозвіл на використання своїх моделей для «усіх законних цілей», тоді як інші зберігають обмеження у використанні.

Амодей вже кілька місяців попереджає про захист користувачів, пропонуючи Anthropic як безпечну альтернативу OpenAI та Google у відсутності державних регуляцій. «Мені глибоко незручно, що ці рішення приймають кілька компаній», — сказав він ще у листопаді. Хоча ходили чутки, що Anthropic планує послабити обмеження, тепер компанія може опинитися поза оборонною галуззю зовсім.

Високопосадовець Пентагону повідомив Axios, що міністр оборони Піт Гегсетх «близький» до виключення Anthropic із військової ланцюжка постачань, що змусить будь-кого, хто бажає співпрацювати з військовими, розірвати зв’язки з компанією.

«Це буде величезним болем, і ми переконаємося, що вони заплатять ціну за те, що змусили нас так діяти», — сказав високопосадовець виданню.

Визнання проблеми як військового ризику зазвичай зарезервоване для іноземних противників. Найближчим прецедентом є заборона уряду 2019 року на Huawei через питання національної безпеки. У випадку Anthropic джерела повідомили Axios, що оборонні чиновники вже давно прагнуть створити конфлікт із компанією зі Сан-Франциско.

Коментарі Пентагону є останнім етапом у публічному конфлікті, що набирає обертів. Уряд стверджує, що встановлення компаніями етичних меж для моделей було б надмірно обмежувальним, а численні «сірої зони» зробили б технології безкорисними. Поки Міноборони продовжує переговори з підрядниками щодо розширення використання, публічний конфлікт перетворюється на проксі-зіткнення щодо того, хто визначатиме правила використання ШІ.

XAI0,77%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити