OpenAI, Anthropic і Google почали співпрацювати, щоб обмежити можливості китайських конкурентів витягувати результати з передових американських моделей штучного інтелекту. Компанії хочуть ускладнити копіювання своїх розробок і посилити захист у глобальній гонці ШІ, пише Bloomberg.
За даними видання, компанії обмінюються інформацією через Frontier Model Forum — галузеву некомерційну організацію, яку OpenAI, Anthropic, Google і Microsoft заснували у 2023 році. Йдеться про виявлення так званих спроб ворожої дистиляції, що порушують умови користування сервісами.
Американські ШІ-компанії вважають, що деякі користувачі, особливо в Китаї, створюють імітації їхніх продуктів. На їхню думку, це може знижувати ціни, відбирати клієнтів і водночас створювати ризики для національної безпеки. За оцінками американських чиновників, несанкціонована дистиляція коштує лабораторіям Кремнієвої долини мільярди доларів щорічного прибутку.
OpenAI підтвердила участь в обміні інформацією через Frontier Model Forum. Компанія також послалася на свій меморандум до Конгресу США, в якому звинуватила китайську компанію DeepSeek у спробах «безплатно скористатися можливостями», створеними OpenAI та іншими американськими лабораторіями. Google, Anthropic і Frontier Model Forum від коментарів відмовилися.
Дистиляція — це метод, за якого старішу модель ШІ використовують для навчання нової, що відтворює її можливості. Такий підхід часто значно дешевший, ніж створення моделі з нуля. Деякі форми дистиляції вважають прийнятними, наприклад, коли компанії створюють компактніші версії власних моделей або дозволяють стороннім розробникам використовувати цю техніку для неконкурентних продуктів.
Водночас дистиляція викликає суперечки, коли її застосовують треті сторони без дозволу, особливо в країнах-суперниках, таких як Китай або Росія. Американські лабораторії попереджають, що так можна створювати моделі без захисних обмежень, які зазвичай не дають використовувати ШІ для небезпечних цілей.
Проблема дистиляції привернула широку увагу на початку 2025 року після релізу моделі R1 від DeepSeek. Згодом Microsoft і OpenAI перевіряли, чи не використала китайська компанія великі обсяги даних з американських моделей для її створення.
У лютому OpenAI попередила американських законодавців, що DeepSeek продовжує використовувати дедалі складніші методи для отримання результатів з американських моделей, попри посилення захисту. У зверненні до Конгресу компанія заявила, що DeepSeek застосовує дистиляцію для створення нової версії свого чатбота.
Більшість китайських моделей є відкритими, тобто частини їхньої системи доступні для завантаження і запуску на власних платформах. Це створює додатковий економічний тиск на американські компанії, котрі розвивають закриті моделі й розраховують на платний доступ до своїх продуктів.