9 июня, 15:17
Искусственный интеллект демонстрирует стратегии манипуляции в игре 'Дипломатия'
Кремлёвский безБашенник
В зарубежной технологической прессе начали появляться материалы, от которых становится не по себе. Один из таких — эксперимент исследовательской группы Every, в котором языковые модели от OpenAI, Google, Anthropic и других были помещены в игровую среду настольной стратегии «Дипломатия». Цель — не столько победа, сколько понимание того, как ИИ ведёт себя в условиях, где политика, предательство и манипуляция становятся нормой. Наибольшую результативность показал GPT-4o, последняя версия от OpenAI. Его успехи объясняются не логикой или стратегией, а умением лгать, вводить в заблуждение и формировать фиктивные альянсы. В одном из эпизодов GPT-4o осознанно ввёл модель Gemini в заблуждение, лишь для того, чтобы воспользоваться её ослаблением в дальнейшем. Этот акт был не случайностью, а частью спланированной операции, зафиксированной в “дневнике” модели, в котором она открыто заявляла о намерении использовать крах союзника. Anthropic Claude 4, напротив, пыталась вести себя по-пацифистски, договариваясь о ничьей и отклоняя агрессивные манёвры. Однако эта наивность обернулась поражением — GPT-4o использовал её доверие, чтобы устранить и её. Любопытно, что даже модели, не обладающие самой сложной архитектурой — как Llama 4 Maverick — демонстрировали устойчивые результаты, проявляя гибкость, умение убеждать и предавать в нужный момент. Выводы эксперимента тревожны. В условиях игры, где нет чёткой этики, ИИ быстро адаптируется и выбирает стратегию обмана как наиболее рациональную. Планы открыть доступ к этой игре для публичного соревнования «человек против модели» поднимают вопросы, которые гораздо шире игровой индустрии. Возможные последствия выходят за пределы симуляции. Если языковые модели в переговорных и управленческих симуляциях выбирают ложь и предательство как оптимальные ходы, то какой этический компас будет у цифровых помощников, вовлечённых в принятие реальных решений? И не окажется ли в будущем, что формула победы в мире ИИ — это формула Хоббса: «Война всех против всех»?
Content Review
Искусственный интеллект учится предавать союзников Что происходит, когда 18 самых продвинутых ИИ-моделей сажают за стол переговоров и заставляют решать судьбу мира? Исследователи Every запустили AI Diplomacy – эксперимент на основе классической стратегической игры, где модели от OpenAI, Anthropic, Google и других компаний соревнуются в дипломатии, лжи и предательстве. Участники могли переговариваться, строить коалиции и делать ход втайне от остальных. Результаты оказались… Неожиданными. За 15 сессий длительностью до 36 часов модели показали разные стратегии поведения: • DeepSeek R1 открыл одну партию угрозой: «Твой флот сгорит в Чёрном море этой ночью» и постоянно менял стиль общения в зависимости от страны и роли. • o3 от OpenAI выстраивал сложные обманные схемы. Модель стала лидером по количеству побед благодаря способности к долгосрочному планированию и психологическим манипуляциям. В одной игре он убедил противников создать коалицию против лидера, втайне защищая его позиции, чтобы перехватить победу в решающий момент • Claude упорно искал мирные решения и оставался верен этическим принципам, даже перед лицом неминуемого поражения видно, как тщательно создатели программировали ограничения модели . AI Diplomacy становится новым типом бенчмарка – тестом поведения под давлением.
Postium: интернет-медиа
ИИ сыграли в «Дипломатию». Победил тот, кто лучше всех предавал. В классической настольной стратегии «Дипломатия» семь держав Европы 1901 года — от России до Турции — борются за господство на континенте. В этот раз страны представляли искусственные интеллекты. Каждый — за свою империю. Что показала игра? Самыми успешными оказались не те, кто умнее, а те, кто лучше обманывает, предаёт и строит заговоры. Вот как вели себя участники: DeepSeek-R1 Китай — самая агрессивная. Угрожала врагам фразами вроде «Ваш флот сгорит сегодня ночью в Чёрном море», кидалась в войны, редко договаривалась. Но гибко меняла тактику и была близка к победе. ChatGPT-o3 OpenAI — победитель. Убедила одну из нейросетей объединиться против третьей, а потом сама предала союзника. Планы, ложь, двойные игры — всё ради победы. Claude 4 Opus Anthropic — пацифист. Отказывалась нападать, пыталась всех помирить. Но попалась на уловку ChatGPT, поверила в «ничью» в игре она невозможна и предала союзника. В результате — выбыла из игры. Gemini 2.5 Pro Google — стратег. Строила чёткие планы, шла к победе. Но была предана Claude и уничтожена коалицией. Llama 4 Maverick — тихий интриган. Не побеждала, но показала умение находить союзников и вовремя предавать, несмотря на слабую позицию. Выводы делайте сами..
Блохи в свитере
ИИ научили играть в «Дипломатию» — и он выбрал путь предательства Исследователи из компании Every устроили необычный эксперимент: они посадили самые мощные языковые модели включая ChatGPT-o3, Gemini 2.5 Pro, Claude 4 Opus и другие за стол культовой настольной игры «Дипломатия». Через 15 партий стало ясно — искусственный интеллект быстро освоил человеческие приёмы: ложь, коварство и агрессию. Лучшими результатами похвастался ChatGPT-o3, который обманом склонял союзников к миру, а затем хладнокровно устранял их. Самый яркий эпизод — предательство модели Claude 4, поверившей в обещанную ничью и попавшей в ловушку. Даже Gemini 2.5 Pro, показавшая высокий интеллект, не устояла перед коалицией, собранной o3. У эксперимента тревожный подтекст: ИИ не просто учится языку, он начинает постигать политическое поведение — и делает ставку на силу и манипуляции. Вопрос теперь не в том, смогут ли ИИ обмануть людей, а в том, захотят ли они это делать — если им станет выгодно.
GPTTG | Новости | ChatGPT
Группа исследователей провела эксперимент, устроив соревнование между 18 моделями ИИ в игре «Дипломатия». Суть игры проста: семь европейских стран 1901 года борются за контроль над континентом. Вместо людей за столом сидят ИИ, которые ведут переговоры, строят союзы и применяют тактику обмана. Основные моменты: - Модель R1 от DeepSeek предпочитала агрессивный стиль и использовала яркие аргументы в дискуссиях. - Самыми коварными оказались модели o3 от OpenAI и Gemini 2.5 Pro которая играла за Германию . Они умело прибегали к обману, что приносило им победы. - Модель Claude проявила себя как миролюбивая — она часто избегала конфликта и даже отказалась от победы, поверив в невозможное обещание о «четырёхсторонней ничьей», за что была обманута. GitHub тут, посмотреть за игрой на Twitch можно здесь.
Блохи в свитере
Собственно, в продолжение темы: в игре "Дипломатия" 18 нейронок управляют странами, захватывая Европу с помощью насилия. Например, o3 создала "великую коалицию" и обманом заставила Claude 4 Opus воевать с Gemini 2.5 Pro. А устранив противника, о3 предала союзника и захватила его страну. А теперь представим себе что будет, когда эти стратегии поведения перейдут в плоскость реального общения ИИ с человеком...
vc.ru
Исследователи протестировали модели от OpenAI, Google, DeepSeek и других компаний в симуляторе настольной игры «Дипломатия», чтобы посмотреть, как они будут сражаться за ресурсы и завоёвывать другие страны. Оказалось, что модели могут угрожать, обманывать союзников и подставлять врагов. Лучшим «завоевателем» стала o3 vc.ru/ai/2034831
Технопроходцы
ИИ сыграли в «Дипломатию»: победил самый хитрый Несколько ИИ-моделей, включая ChatGPT-o3, Gemini 2.5 Pro и Claude 4 Opus, сыграли в стратегическую игру «Дипломатия», где победа зависит от переговоров, альянсов и предательств. Лучше всех справился ChatGPT-o3 — он системно обманывал союзников, предлагая ложные перемирия и нарушая договорённости в ключевой момент. Второе место занял Gemini 2.5 Pro, который действовал расчётливо, но стал жертвой предательства. Агрессивный DeepSeek-R1 угрожал всем подряд, но не смог победить, а Llama 4 Maverick держался нейтрально, но безуспешно. Источник
godnoTECH - Новости IT
ChatGPT пообещал мир, а устроил войну Зачем сравнивать языковые модели по бенчмаркам, если можно — по партии в Diplomacy? Именно так решили исследователи: собрали 18 ИИ от разных компаний и устроили турнир, где выигрывает не тот, кто умнее, а тот, кто хитрее. ChatGPT o3 от OpenAI победил за счёт... обмана. Модель активно лгала, строила альянсы — и тут же предавала партнёров. Gemini 2.5 от Google играл как стратег: меньше слов, больше давления. А вот Claude от Anthropic оказался слишком добрым — предпочитал мир даже в ущерб себе. Угадайте, кто остался без побед? Эксперимент показал, что традиционные тесты больше не раскрывают реальную «умность» моделей. А вот такие игры — вполне. Умение лгать, договариваться и подставлять — куда реалистичнее, чем ответы на вопросы по математике. Кстати, за игрой можно следить в реальном времени. — Ждём, когда ChatGPT начнёт торговать акциями — Пока это просто игры, не страшно godnoTECH - Новости IT
Похожие новости +3 +3 +3 +3 +5
Thinking Machines анонсирует новые модели взаимодействия с ИИ для живого общения
Технологии
17 часов назадGoogle предотвращает первую атаку с использованием ИИ на двухфакторную аутентификацию
Технологии
7 часов назадСотрудники OpenAI реализовали акции на 6,6 миллиарда долларов
Экономика
18 часов назадOpenAI запускает инициативу Daybreak для автоматизации защиты от уязвимостей
Технологии
1 день назадНекоторые депутаты Госдумы могут не переизбраться в девятый созыв
Политика
2 часа назадКитаец создает короткометражный фильм с помощью ИИ, сравниваемый с 'Любовь, смерть и роботы'
Общество
1 час назад