OpenAI змінить контракт із Пентагоном і заборонить використання ШІ для масового стеження

OpenAI внесе зміни до угоди з Міністерством оборони США, щоби прямо заборонити використання своїх систем штучного інтелекту для внутрішнього масового стеження за громадянами країни.

Про це повідомив генеральний директор компанії Сем Альтман, опублікувавши внутрішню записку для співробітників.

До контракту планують додати формулювання, яке передбачає: відповідно до чинного законодавства США, включно із Четвертою поправкою до Конституції, Законом про національну безпеку 1947 року та Законом FISA 1978 року, системи ШІ не повинні навмисно використовуватися для внутрішнього спостереження за громадянами та підданими США.

Окремо уточнюється, що це обмеження забороняє навмисне відстеження, спостереження або моніторинг громадян, зокрема шляхом придбання чи використання комерційно отриманої персональної або ідентифікаційної інформації.

Альтман наголосив, що для компанії «критично важливо захищати громадянські свободи американців», і саме тому OpenAI вирішила чітко зафіксувати це положення в договорі.

Міністерство оборони також підтвердило, що сервіси OpenAI не використовуватимуться розвідувальними агентствами відомства, зокрема Агентством національної безпеки (NSA). Будь-яке залучення таких структур вимагатиме окремої модифікації контракту.

У своєму зверненні Альтман заявив, що компанія працює в межах демократичних процесів і визнає роль уряду в ухваленні ключових рішень. Водночас він зазначив: у разі отримання наказу, який вважав би неконституційним, «радше пішов би до в’язниці, ніж виконав його».

Гендиректор також визнав, що OpenAI поспішила з публічним оголошенням угоди наприкінці лютого. За його словами, питання були складними й потребували чіткішої комунікації. Компанія намагалася «деескалювати ситуацію та уникнути гіршого сценарію», однак це могло видаватися поспішним.

Про співпрацю OpenAI з Пентагоном стало відомо наприкінці лютого — у день, коли президент США Дональд Трамп доручив федеральним агентствам припинити використання ШІ-інструментів компанії Anthropic, зокрема чатбота Claude.

Конфлікт між Пентагоном і Anthropic виник через вимоги Міноборони використовувати технології без обмежень. Anthropic заявила, що її моделі не можна застосовувати для автономної летальної зброї та масового стеження за громадянами США, і відмовилася змінювати цю позицію.

Альтман також зазначив, що під час розмов із представниками відомства наголошував: Anthropic не повинна отримати статус спеціального обмеженого постачальника, а умови співпраці для компанії мають бути такими ж, як і для OpenAI.

Опубліковано: 03 березня 2026