24 февраля, 07:03

Anthropic обвиняет китайские компании в несанкционированном использовании модели Claude

Две новости про Anthropic 1 Завтра у CEO компании состоится встреча с Министром обороны США так как Anthropic против использования своих моделей в военных целях в январе стало известно что Claude использовалась для планирования операции в Венесуэле Компания Anthropic понимает что это не встреча для знакомства заявил высокопоставленный представитель Министерства обороны изданию Axios Это не дружеская встреча Это встреча на которой действует принцип либо паши либо убирайся к черту Anthropic готовы пойти на уступки и сделать послабления в политике использования но не готовы двигаться по двум направлениям массовая слежка за американскими гражданами и разработка оружия способного вести огонь без участия человека 2 Anthropic обнаружили что как минимум 3 китайские LLM компании занимаются массовой дистилляцией моделей Это запрещено правилами пользования ну и понятно почему Anthropic не хотят этого допускать DeepSeek запалились меньше всех Anthropic атрибутируют им 150 тысяч запросов Moonshot AI авторы Kimi про которую я недавно писал лонг 3 4 миллиона запросов Больше всех отличились MiniMax более 13 миллионов запросов Три описанные кампании по дистилляции следовали схожей схеме используя мошеннические учетные записи и прокси сервисы для масштабного доступа к Claude избегая при этом обнаружения Объем структура и направленность запросов отличались от обычных паттернов использования отражая преднамеренное извлечение возможностей наших моделей Мы с высокой степенью уверенности идентифицировали каждую кампанию как конкретную лабораторию на основе корреляции IP адресов метаданных запросов индикаторов инфраструктуры а в некоторых случаях и подтверждения от отраслевых партнеров которые наблюдали те же субъекты и поведение на своих платформах Каждая кампания была направлена на наиболее разные возможности Claude агентное рассуждение использование инструментов и программирование Мы делимся техническими показателями с другими лабораториями ИИ облачными провайдерами и соответствующими органами Это позволяет получить более целостную картину ситуации с дистилляцией
Denis Sexy IT 🤖
Denis Sexy IT 🤖
Две новости про Anthropic 1 Завтра у CEO компании состоится встреча с Министром обороны США так как Anthropic против использования своих моделей в военных целях в январе стало известно что Claude использовалась для планирования операции в Венесуэле Компания Anthropic понимает что это не встреча для знакомства заявил высокопоставленный представитель Министерства обороны изданию Axios Это не дружеская встреча Это встреча на которой действует принцип либо паши либо убирайся к черту Anthropic готовы пойти на уступки и сделать послабления в политике использования но не готовы двигаться по двум направлениям массовая слежка за американскими гражданами и разработка оружия способного вести огонь без участия человека 2 Anthropic обнаружили что как минимум 3 китайские LLM компании занимаются массовой дистилляцией моделей Это запрещено правилами пользования ну и понятно почему Anthropic не хотят этого допускать DeepSeek запалились меньше всех Anthropic атрибутируют им 150 тысяч запросов Moonshot AI авторы Kimi про которую я недавно писал лонг 3 4 миллиона запросов Больше всех отличились MiniMax более 13 миллионов запросов Три описанные кампании по дистилляции следовали схожей схеме используя мошеннические учетные записи и прокси сервисы для масштабного доступа к Claude избегая при этом обнаружения Объем структура и направленность запросов отличались от обычных паттернов использования отражая преднамеренное извлечение возможностей наших моделей Мы с высокой степенью уверенности идентифицировали каждую кампанию как конкретную лабораторию на основе корреляции IP адресов метаданных запросов индикаторов инфраструктуры а в некоторых случаях и подтверждения от отраслевых партнеров которые наблюдали те же субъекты и поведение на своих платформах Каждая кампания была направлена на наиболее разные возможности Claude агентное рассуждение использование инструментов и программирование Мы делимся техническими показателями с другими лабораториями ИИ облачными провайдерами и соответствующими органами Это позволяет получить более целостную картину ситуации с дистилляцией
GPT/ChatGPT/AI Central Александра Горного
GPT/ChatGPT/AI Central Александра Горного
Anthropic обвинил DeepSeek Moonshot и MiniMax в использовании Claude для обучения своих моделей Расследование показало что китайские разработчики незаконно переливали знания из Claude в свои LLM Для этого они завели 24 тысячи подставных аккаунтов С них сделали 16 миллионов запросов из которых 13 миллионов опознали как запросы в пользу MiniMax Атаки с использованием дистилляции такого масштаба требуют скоординированного ответа со стороны индустрии ИИ поставщиков облачных услуг и политиков заявили в Anthropic OpenAI недавно пожаловалась в Конгресс США на DeepSeek из за такого же нарушения www anthropic com news detecting and preventing distillation attacks
Американский ИИ стартап Anthropic обвинил три китайские компании в создании более 24 тыс мошеннических аккаунтов в его системе Claude AI для кражи данных сообщает The Wall Street Journal Согласно заявлению компании китайские DeepSeek Moonshot AI и MiniMax обращались к Claude более 16 млн раз чтобы собирать информацию из системы Anthropic для обучения и улучшения своих собственных продуктов Такой способ могут применять в легитимных целях например для создания упрощенных версий своих же продуктов но он также позволяет конкурентам создавать аналогичные нейросети заявляют в компании В Anthropic считают что подобные действия несут риски для национальной безопасности США Масштабы обращений к Claude у компаний различалась По данным Anthropic DeepSeek провел 150 тыс взаимодействий с Claude в то время как у Moonshot и MiniMax было более 3 4 млн и 13 млн соответственно В феврале конкурент Anthropic OpenAI направила законодателям Палаты представителей докладную записку в которой обвинила DeepSeek в использовании той же практики которую называют дистилляцией для имитации продуктов OpenAI Moonshot и MiniMax недавно выпустили свои новейшие модели искусственного интеллекта многие из которых обладают расширенными возможностями логического мышления и кодирования отмечает The Wall Street Journal DeepSeek готовится к выпуску своей модели следующего поколения
Неудаща
Неудаща
Американский ИИ стартап Anthropic обвинил три китайские компании в создании более 24 тыс мошеннических аккаунтов в его системе Claude AI для кражи данных сообщает The Wall Street Journal Согласно заявлению компании китайские DeepSeek Moonshot AI и MiniMax обращались к Claude более 16 млн раз чтобы собирать информацию из системы Anthropic для обучения и улучшения своих собственных продуктов Такой способ могут применять в легитимных целях например для создания упрощенных версий своих же продуктов но он также позволяет конкурентам создавать аналогичные нейросети заявляют в компании В Anthropic считают что подобные действия несут риски для национальной безопасности США Масштабы обращений к Claude у компаний различалась По данным Anthropic DeepSeek провел 150 тыс взаимодействий с Claude в то время как у Moonshot и MiniMax было более 3 4 млн и 13 млн соответственно В феврале конкурент Anthropic OpenAI направила законодателям Палаты представителей докладную записку в которой обвинила DeepSeek в использовании той же практики которую называют дистилляцией для имитации продуктов OpenAI Moonshot и MiniMax недавно выпустили свои новейшие модели искусственного интеллекта многие из которых обладают расширенными возможностями логического мышления и кодирования отмечает The Wall Street Journal DeepSeek готовится к выпуску своей модели следующего поколения
vc.ru
vc.ru
Anthropic обвинил DeepSeek Moonshot и MiniMax в краже данных из чат бота Claude для обучения собственных моделей якобы они пользовались дистилляцией С похожими обвинениями против DeepSeek в феврале 2026 года выступила и OpenAI vc ru ai 2755380
Anthropic обвинила китайские компании DeepSeek MiniMax и Moonshot в несанкционированном использовании своего AI модели Claude для улучшения собственных продуктов В понедельник Anthropic сообщила о масштабных кампаниях в ходе которых было создано около 24 000 поддельных аккаунтов и осуществлено более 16 миллионов взаимодействий с Claude Эти компании обвиняются в дистилляции Claude то есть в обучении меньшей модели AI на основе более продвинутой Хотя в Anthropic признают что дистилляция является законным методом обучения они также указывают на возможность её использования в незаконных целях PRO AI OFFICIAL
PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
PRO AI | ПОЛЕЗНЫЙ СОФТ | НОВОСТИ
Anthropic обвинила китайские компании DeepSeek MiniMax и Moonshot в несанкционированном использовании своего AI модели Claude для улучшения собственных продуктов В понедельник Anthropic сообщила о масштабных кампаниях в ходе которых было создано около 24 000 поддельных аккаунтов и осуществлено более 16 миллионов взаимодействий с Claude Эти компании обвиняются в дистилляции Claude то есть в обучении меньшей модели AI на основе более продвинутой Хотя в Anthropic признают что дистилляция является законным методом обучения они также указывают на возможность её использования в незаконных целях PRO AI OFFICIAL
Anthropic обвинила DeepSeek Moonshot и MiniMax в краже возможностей Claude По данным Anthropic три китайские корпорации суммарно сгенерировали более 16 миллионов обращений к Claude через примерно 24 000 поддельных аккаунтов Это было сделано для обучения своих слабых моделей на на ответах сильной чтобы за долю времени и бюджета перенять способности на разработку которых ушли годы и миллиарды долларов Масштабы у каждой лаборатории разные и тактики отличались DeepSeek более 150 000 обращений Они просили Claude представить и расписать собственную цепочку рассуждений по шагам фактически генерируя готовые данные для обучения reasoning модели Кроме того DeepSeek использовал Claude для создания безопасных ответов на политически чувствительные вопросы про диссидентов партийных лидеров авторитаризм вероятно чтобы научить свою модель аккуратно обходить цензурные темы По метаданным Anthropic удалось отследить аккаунты до конкретных исследователей лаборатории Moonshot AI создатели моделей Kimi более 3 4 миллиона обращений с фокусом на агентное поведение работу с инструментами написание кода анализ данных и компьютерное зрение Использовали сотни поддельных аккаунтов разного типа чтобы затруднить обнаружение координированной атаки Метаданные запросов совпали с публичными профилями старших сотрудников Moonshot MiniMax абсолютный рекордсмен с более чем 13 миллионами обращений нацеленных на агентное программирование и оркестрацию инструментов Когда Anthropic выпустила новую модель прямо в разгар их кампании MiniMax за 24 часа пожирала почти половину трафика чтобы перехватить возможности свежей системы   Доступ все три лаборатории получали через прокси сервисы которые перепродают API фронтирных моделей Anthropic описывает это как архитектуру кластеров гидр разветвлённые сети из тысяч поддельных аккаунтов распределяющих трафик по API и облачным платформам Одна такая сеть одновременно управляла более чем 20 000 фейковых аккаунтов смешивая трафик дистилляции с обычными клиентскими запросами для маскировки Anthropic далеко не единственная жертва  Ранее OpenAI направила меморандум в Конгресс США с обвинениями в адрес DeepSeek  А 12 февраля группа Google Threat Intelligence Group сообщила об атаках дистилляции на Gemini более 100 000 промптов нацеленных на клонирование мультиязыковых reasoning способностей модели В сети далеко не все встали на сторону американских корпораций критики указывают что компания сама обучала свои модели на данных из открытого интернета и обвинения в воровстве выглядят как минимум неоднозначно Ни DeepSeek ни Moonshot ни MiniMax пока не ответили на обвинения публично News max Soft max Hacker max
Чёрный Треугольник
Чёрный Треугольник
Anthropic обвинила DeepSeek Moonshot и MiniMax в краже возможностей Claude По данным Anthropic три китайские корпорации суммарно сгенерировали более 16 миллионов обращений к Claude через примерно 24 000 поддельных аккаунтов Это было сделано для обучения своих слабых моделей на на ответах сильной чтобы за долю времени и бюджета перенять способности на разработку которых ушли годы и миллиарды долларов Масштабы у каждой лаборатории разные и тактики отличались DeepSeek более 150 000 обращений Они просили Claude представить и расписать собственную цепочку рассуждений по шагам фактически генерируя готовые данные для обучения reasoning модели Кроме того DeepSeek использовал Claude для создания безопасных ответов на политически чувствительные вопросы про диссидентов партийных лидеров авторитаризм вероятно чтобы научить свою модель аккуратно обходить цензурные темы По метаданным Anthropic удалось отследить аккаунты до конкретных исследователей лаборатории Moonshot AI создатели моделей Kimi более 3 4 миллиона обращений с фокусом на агентное поведение работу с инструментами написание кода анализ данных и компьютерное зрение Использовали сотни поддельных аккаунтов разного типа чтобы затруднить обнаружение координированной атаки Метаданные запросов совпали с публичными профилями старших сотрудников Moonshot MiniMax абсолютный рекордсмен с более чем 13 миллионами обращений нацеленных на агентное программирование и оркестрацию инструментов Когда Anthropic выпустила новую модель прямо в разгар их кампании MiniMax за 24 часа пожирала почти половину трафика чтобы перехватить возможности свежей системы Доступ все три лаборатории получали через прокси сервисы которые перепродают API фронтирных моделей Anthropic описывает это как архитектуру кластеров гидр разветвлённые сети из тысяч поддельных аккаунтов распределяющих трафик по API и облачным платформам Одна такая сеть одновременно управляла более чем 20 000 фейковых аккаунтов смешивая трафик дистилляции с обычными клиентскими запросами для маскировки Anthropic далеко не единственная жертва Ранее OpenAI направила меморандум в Конгресс США с обвинениями в адрес DeepSeek А 12 февраля группа Google Threat Intelligence Group сообщила об атаках дистилляции на Gemini более 100 000 промптов нацеленных на клонирование мультиязыковых reasoning способностей модели В сети далеко не все встали на сторону американских корпораций критики указывают что компания сама обучала свои модели на данных из открытого интернета и обвинения в воровстве выглядят как минимум неоднозначно Ни DeepSeek ни Moonshot ни MiniMax пока не ответили на обвинения публично News max Soft max Hacker max
42 секунды
42 секунды
WSJ Anthropic обвиняет китайские компании в краже данных Claude Три стартапа создали 24 тыс мошеннических аккаунтов Речь идет про стартапы DeepSeek Moonshot и MiniMax Аккаунты ИИ стартапов обращались 16 млн раз к Claude Стартапы через аккаунты выкачивали данные из Claude Данные помогали им обучать и совершенствовать модели Ранее в такой же тактике OpenAI обвинила DeepSeek По факту стартапы использовали метод дистилляции Метод дистилляция может иметь законное применение Речь про создание уменьшенных версий своих продуктов Однако метод позволяет создать конкурирующие продукты Конкурентам нужно гораздо меньше времени и ресурсов DeepSeek провел 150 тыс взаимодействий с Claude Показатели для Moonshot и MiniMax составили 3 4 и 13 млн Действия китайских стартапов угрожают безопасности США ftsec