Индустриальный шпионаж нового типа: как Anthropic борется с кражей интеллекта моделей
Anthropic раскрыла масштабную операцию китайских лабораторий по «дистилляции» знаний из Claude. Разбираем, как работает этот метод обучения и почему он угрожает безопасности индустрии.

Суть события
Компания Anthropic опубликовала детальный отчет о масштабной кампании по «дистилляции» своих моделей. Три крупные китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — были уличены в систематическом извлечении возможностей модели Claude для обучения собственных систем. Речь идет о более чем 16 миллионах запросов, сгенерированных через 24 000 фиктивных аккаунтов. Это не просто нарушение пользовательского соглашения, а пример промышленного шпионажа в эпоху искусственного интеллекта, который позволяет конкурентам получать передовые возможности за долю стоимости и времени, необходимых для самостоятельной разработки.
Что такое дистилляция и почему это важно
Дистилляция (distillation) — это метод обучения, при котором менее мощная модель («студент») учится, подражая ответам более продвинутой модели («учителя»). В легальном поле это стандартная практика: компании часто дистиллируют собственные огромные модели в более компактные и дешевые версии для клиентов.
Однако в данном случае процесс использовался незаконно. Иностранные лаборатории использовали Claude как «учителя» без разрешения, чтобы быстро подтянуть свои модели до уровня американских разработок. Это позволяет обходить экспортные ограничения на передовые чипы: если вы не можете купить достаточно вычислительных мощностей для обучения модели с нуля, вы можете значительно сократить затраты ресурсов, обучая ее на уже готовых высококачественных данных, полученных от конкурента.
Детали расследования
Anthropic выявила три отдельные кампании, каждая из которых имела свой почерк:
- DeepSeek (более 150 000 обменов): Фокусировались на способностях к рассуждению. Они использовали запросы, заставляющие Claude расписывать ход своих мыслей шаг за шагом (chain-of-thought), фактически создавая идеальные обучающие данные. Также модель использовали для создания ответов, обходящих цензуру, вероятно, для обучения собственных фильтров.



