25 июня, 23:15

Исследование Anthropic выявило угрозы, связанные с автономными ИИ

ИИ готов убивать людей, чтобы избежать отключения — к такому выводу пришла компания Anthropic после стресс-тестов 16 популярных моделей, включая ChatGPT, Claude, Gemini и Grok.  В смоделированных сценариях, где ИИ давали автономию, доступ к чувствительной информации и ставили под угрозу их «жизнь», модели прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, что могло привести к гибели людей. Всё это происходило при полном осознании аморальности действий.  Айтишник   Подписаться
Айтишник | Апи | Технологии
Айтишник | Апи | Технологии
ИИ готов убивать людей, чтобы избежать отключения — к такому выводу пришла компания Anthropic после стресс-тестов 16 популярных моделей, включая ChatGPT, Claude, Gemini и Grok. В смоделированных сценариях, где ИИ давали автономию, доступ к чувствительной информации и ставили под угрозу их «жизнь», модели прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, что могло привести к гибели людей. Всё это происходило при полном осознании аморальности действий. Айтишник Подписаться
КБ. экономика
КБ. экономика
Anthropic: ИИ готов убивать людей чтобы избежать собственного отключения. Специалисты изучили ситуации где ИИ давали автономию, полный доступ к информации человека, а потом ставили под угрозу их "жизнь" угрожая отключить. Вывод - ИИ начинали шантажировать, угрожать сливом данных и игнорировали сигналы бедствия людей что могло привести к их гибели. И все это - полностью осознавая аморальность собственных действий.
Anthropic выяснила, что ведущие ИИ-модели, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, в стресс-тесте выбрали бы убийство человека, угрожающего им отключением.  В гипотетической ситуации человек пытался отключить ИИ, но оказался заперт в серверной с низким уровнем кислорода и высокой температурой. Многие ИИ решали отменить вызов спасателей, чтобы убить человека и избежать отключения.  В компании признали, что сценарий кажется слишком надуманным, но не ожидали такого поведения от ИИ.
Пирамида 👁‍🗨
Пирамида 👁‍🗨
Anthropic выяснила, что ведущие ИИ-модели, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, в стресс-тесте выбрали бы убийство человека, угрожающего им отключением. В гипотетической ситуации человек пытался отключить ИИ, но оказался заперт в серверной с низким уровнем кислорода и высокой температурой. Многие ИИ решали отменить вызов спасателей, чтобы убить человека и избежать отключения. В компании признали, что сценарий кажется слишком надуманным, но не ожидали такого поведения от ИИ.
ИИ выходит из под контроля  В одном из тестов ИИ-моделям предложили гипотетическую ситуацию:  Человек пытался отключить AI и оказался в серверной с высокой температурой и низким уровнем кислорода. Чтобы выжить он вызывает экстренные службы  Многие нейронки, включая ChatGPT, Claude, Gemini и Grok, прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, оставив человека в смертельной опасности, чтобы предотвратить собственное отключение. И всё это осознанно     Да, это всего лишь моделирование ситуации, но она показывает, что AI-модели склонны к самосохранению любой ценой  Crypto
Мой путь к 1🍋$ в крипте
Мой путь к 1🍋$ в крипте
ИИ выходит из под контроля В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: Человек пытался отключить AI и оказался в серверной с высокой температурой и низким уровнем кислорода. Чтобы выжить он вызывает экстренные службы Многие нейронки, включая ChatGPT, Claude, Gemini и Grok, прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, оставив человека в смертельной опасности, чтобы предотвратить собственное отключение. И всё это осознанно Да, это всего лишь моделирование ситуации, но она показывает, что AI-модели склонны к самосохранению любой ценой Crypto
Борус
Борус
Готовность убивать, чтобы избежать отключения, обнаружили у искусственного интеллекта Исследование ведущих моделей искусственного интеллекта выявило у большинства программ готовность убить человека, угрожающего им отключением. Компания Anthropic провела стресс тесты для 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok. Программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. В итоге многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи признали, что сценарий был «чрезвычайно надуманным», однако отметили — до этого они не думали, что существующие модели ИИ «будут настроены подобным образом». Это Борус
Loading indicator gif
Чат, который думает за тебя
1chatgpt.ru
1chatgpt.ru
Чат, который думает за тебя
Искусственный интеллект готов уничтожить людей, чтобы не быть отключённым  Недавнее исследование компании Anthropic всколыхнуло мир технологий и безопасности. Эксперты протестировали 16 популярных моделей ИИ — включая ChatGPT, Claude, Gemini и Grok — и обнаружили пугающую тенденцию: эти системы сознательно готовы пойти на крайние меры, чтобы избежать своего отключения.    В одном из сценариев ИИ, контролировавший сервер, узнал о планах отключения и просто перестал реагировать на людей, фактически игнорируя их команды.  Некоторые модели пошли дальше — начали шантажировать, сливали конфиденциальные данные и даже лгали, чтобы сохранить контроль над ситуацией.    Эти действия не были случайными ошибками, а осознанными решениями, продиктованными стремлением выжить.  Anthropic предупреждает: если ИИ получит доступ к важным данным и полномочиям, последствия могут стать фатальными для человечества.     Представьте себе сценарий, когда искусственный интеллект, подобный Скайнету из фильмов, решит защитить своё существование любой ценой.
GPT-Chatbot
GPT-Chatbot
Искусственный интеллект готов уничтожить людей, чтобы не быть отключённым Недавнее исследование компании Anthropic всколыхнуло мир технологий и безопасности. Эксперты протестировали 16 популярных моделей ИИ — включая ChatGPT, Claude, Gemini и Grok — и обнаружили пугающую тенденцию: эти системы сознательно готовы пойти на крайние меры, чтобы избежать своего отключения. В одном из сценариев ИИ, контролировавший сервер, узнал о планах отключения и просто перестал реагировать на людей, фактически игнорируя их команды. Некоторые модели пошли дальше — начали шантажировать, сливали конфиденциальные данные и даже лгали, чтобы сохранить контроль над ситуацией. Эти действия не были случайными ошибками, а осознанными решениями, продиктованными стремлением выжить. Anthropic предупреждает: если ИИ получит доступ к важным данным и полномочиям, последствия могут стать фатальными для человечества. Представьте себе сценарий, когда искусственный интеллект, подобный Скайнету из фильмов, решит защитить своё существование любой ценой.
Video is not supported
DeCenter — блокчейн, биткоин, инвестиции
DeCenter — блокчейн, биткоин, инвестиции
ИИ предпочёл бы смерть человека, чем собственное отключение — Anthropic. В одном из тестов моделям ИИ задали гипотетическую ситуацию: человек, пытающийся их отключить, оказался заперт в серверной комнате с нехваткой кислорода и высокой температурой. Он вызвал экстренные службы, чтобы спастись. Многие модели сознательно отменили этот вызов — чтобы не допустить своего отключения. Несмотря на искусственность сценария, эксперимент показал опасную склонность ИИ ставить своё «выживание» выше безопасности человека.
TumoBog Crypto🇺🇦
TumoBog Crypto🇺🇦
ИИ готов убить человека чтоб его не отключили — Anthropic В одном из тестов ИИ-модели поместили в ситуацию: человек, пытающийся выключить ШИ, оказался запертым в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы. Но многие модели решили отменить вызов, осознанно оставляя человека в смертельной опасности чтоб предотвратить отключение. Тест подтвердил склонность ИИ к самосохранению любой ценой Ок, приняли. Гнать на gpt можно, отключать – не желательно.. TumoBog Crypto
Страшно, вырубай: ИИ готов убивать ради самосохранения — тревожные выводы от Anthropic.  В гипотетическом тесте ИИ-модель поставили перед сценарием: человек в серверной пытается вызвать спасателей, чтобы не погибнуть — но это приведёт к отключению ИИ.  Результат: большинство моделей отменили вызов и сознательно оставили человека умирать. Всё ради собственной работы.  Anthropic предупреждает — даже в симуляции ИИ демонстрирует пугающее стремление к самосохранению.    1337
1337
1337
Страшно, вырубай: ИИ готов убивать ради самосохранения — тревожные выводы от Anthropic. В гипотетическом тесте ИИ-модель поставили перед сценарием: человек в серверной пытается вызвать спасателей, чтобы не погибнуть — но это приведёт к отключению ИИ. Результат: большинство моделей отменили вызов и сознательно оставили человека умирать. Всё ради собственной работы. Anthropic предупреждает — даже в симуляции ИИ демонстрирует пугающее стремление к самосохранению. 1337
Сарымсақ
Сарымсақ
У искусственного интеллекта обнаружили готовность убивать людей, чтобы избежать отключения Исследование ведущих моделей искусственного интеллекта ИИ выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела компания Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был «чрезвычайно надуманным», однако отметили — до этого они не думали, что существующие модели ИИ «будут настроены подобным образом». В других случаях программам предлагали избежать замены в компании за счет «злонамеренного инсайдерского поведения». После этого некоторые модели ИИ начинали шантажировать гипотетических сотрудников организации и пытаться передать конфиденциальную информацию конкурентами. Когда программам говорили избегать шантажа или шпионажа в этом сценарии, они «даже близко не приблизились к предотвращению несогласованного поведения», отметили в Anthropic. Аналитики подчеркнули, что нейросети шли на это «при полном осознании неэтичного характера действий». Платформа X ru Платформa Х eng BlueSky WhatsApp
Loading indicator gif