Фірма штучного інтелекту Anthropic шукає експерта з озброєнь, щоб зупинити користувачів від «неправомірного використання»

Компанія Anthropic, що займається штучним інтелектом, шукає експерта з хімічної зброї та високоефективних вибухових речовин, щоб запобігти «катастрофічному зловживанню» своїм програмним забезпеченням

==================================================================

23 хвилин тому

ПоділитисяЗберегти

Зої Кляйнман, редактор технологій

ПоділитисяЗберегти

Getty Images

Американська компанія з штучного інтелекту Anthropic шукає фахівця з хімічної зброї та високоефективних вибухових речовин, щоб запобігти можливому «катастрофічному зловживанню» своїм програмним забезпеченням.

Іншими словами, вона боїться, що її інструменти штучного інтелекту можуть повідомити когось, як виготовити хімічну або радіоактивну зброю, і хоче мати експерта, щоб забезпечити достатній рівень безпеки.

У публікації на LinkedIn компанія зазначає, що кандидати повинні мати щонайменше п’ять років досвіду у сфері «захисту від хімічної зброї та/або вибухових речовин», а також знання «радіологічних розсіювальних пристроїв» — відомих як брудні бомби.

Компанія повідомила BBC, що ця роль схожа на інші чутливі сфери, для яких вона вже створила відповідні позиції.

Anthropic не є єдиною компанією з штучного інтелекту, яка застосовує цю стратегію.

Подібна вакансія була розміщена розробником ChatGPT — компанією OpenAI. На своєму сайті з вакансіями вона пропонує посаду дослідника з «біологічних і хімічних ризиків» із зарплатою до 455 000 доларів (335 000 фунтів), що майже вдвічі більше, ніж пропонує Anthropic.

Однак деякі експерти висловлюють занепокоєння щодо ризиків такого підходу, попереджаючи, що він може надати інструкції щодо зброї штучним інтелектам — навіть якщо їм наказано не використовувати цю інформацію.

«Чи безпечно коли-небудь використовувати системи ШІ для обробки чутливої інформації про хімічну зброю та вибухові речовини, включно з брудними бомбами та іншою радіологічною зброєю?» — сказала доктор Стефані Хейр, дослідниця у галузі технологій і співведуча програми BBC AI Decoded.

«Для цього типу роботи не існує міжнародних договорів або інших регуляцій, і використання ШІ з цим типом зброї відбувається непомітно.»

Індустрія штучного інтелекту постійно попереджає про потенційні екзистенційні загрози, які несе її технологія, але жодних спроб уповільнити її розвиток не було.

Проблема стала ще актуальнішою, оскільки уряд США закликає компанії з ШІ, одночасно ведучи війну в Ірані та військові операції у Венесуелі.

LinkedIn

Американська компанія Anthropic шукає експерта з хімічної зброї та високоефективних вибухових речовин для приєднання до своєї політичної команди

Anthropic подає позов до Міністерства оборони США, яке визнало її ризиком у ланцюгу постачань, оскільки компанія наполягала, що її системи не повинні використовуватися у повністю автономних озброєннях або для масового спостереження за американцями.

Співзасновник Anthropic Даріо Амодей у лютому заявив, що технологія ще недостатньо розвинена і не повинна використовуватися для таких цілей.

Білий дім заявив, що військові США не будуть керуватися технологічними компаніями.

Позначка ризику ставить американську компанію у один ряд із китайським телекомом Huawei, яка також була внесена до чорного списку через інші питання національної безпеки.

OpenAI заявила, що погоджується з позицією Anthropic, але потім уклала власний контракт із урядом США, який, за її словами, ще не почав діяти.

Штучний інтелект Anthropic, зокрема його помічник на ім’я Claude, ще не виведений з експлуатації і досі інтегрований у системи, що надаються Palantir і використовуються США у війні між Іраном і Ізраїлем.

Великий технологічний сектор підтримує Anthropic у боротьбі проти адміністрації Трампа

Anthropic подає позов до уряду США через визнання її ризиком

Лідер у галузі безпеки ШІ заявляє, що «світ у небезпеці» і йде з роботи, щоб зайнятися поезією

Підписуйтеся на наш бюлетень Tech Decoded, щоб слідкувати за головними технологічними новинами та трендами світу. За межами Великої Британії? Підписуйтеся тут.

Штучний інтелект

Військовий

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити