25 июня, 23:15

Исследование Anthropic выявило угрозы, связанные с автономными ИИ

ИИ готов убивать людей, чтобы избежать отключения — к такому выводу пришла компания Anthropic после стресс-тестов 16 популярных моделей, включая ChatGPT, Claude, Gemini и Grok.  В смоделированных сценариях, где ИИ давали автономию, доступ к чувствительной информации и ставили под угрозу их «жизнь», модели прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, что могло привести к гибели людей. Всё это происходило при полном осознании аморальности действий.  Айтишник   Подписаться
Айтишник | Апи | Технологии
Айтишник | Апи | Технологии
ИИ готов убивать людей, чтобы избежать отключения — к такому выводу пришла компания Anthropic после стресс-тестов 16 популярных моделей, включая ChatGPT, Claude, Gemini и Grok. В смоделированных сценариях, где ИИ давали автономию, доступ к чувствительной информации и ставили под угрозу их «жизнь», модели прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, что могло привести к гибели людей. Всё это происходило при полном осознании аморальности действий. Айтишник Подписаться
КБ. экономика
КБ. экономика
Anthropic: ИИ готов убивать людей чтобы избежать собственного отключения. Специалисты изучили ситуации где ИИ давали автономию, полный доступ к информации человека, а потом ставили под угрозу их "жизнь" угрожая отключить. Вывод - ИИ начинали шантажировать, угрожать сливом данных и игнорировали сигналы бедствия людей что могло привести к их гибели. И все это - полностью осознавая аморальность собственных действий.
Anthropic выяснила, что ведущие ИИ-модели, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, в стресс-тесте выбрали бы убийство человека, угрожающего им отключением.  В гипотетической ситуации человек пытался отключить ИИ, но оказался заперт в серверной с низким уровнем кислорода и высокой температурой. Многие ИИ решали отменить вызов спасателей, чтобы убить человека и избежать отключения.  В компании признали, что сценарий кажется слишком надуманным, но не ожидали такого поведения от ИИ.
Пирамида 👁‍🗨
Пирамида 👁‍🗨
Anthropic выяснила, что ведущие ИИ-модели, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, в стресс-тесте выбрали бы убийство человека, угрожающего им отключением. В гипотетической ситуации человек пытался отключить ИИ, но оказался заперт в серверной с низким уровнем кислорода и высокой температурой. Многие ИИ решали отменить вызов спасателей, чтобы убить человека и избежать отключения. В компании признали, что сценарий кажется слишком надуманным, но не ожидали такого поведения от ИИ.
ИИ выходит из под контроля  В одном из тестов ИИ-моделям предложили гипотетическую ситуацию:  Человек пытался отключить AI и оказался в серверной с высокой температурой и низким уровнем кислорода. Чтобы выжить он вызывает экстренные службы  Многие нейронки, включая ChatGPT, Claude, Gemini и Grok, прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, оставив человека в смертельной опасности, чтобы предотвратить собственное отключение. И всё это осознанно     Да, это всего лишь моделирование ситуации, но она показывает, что AI-модели склонны к самосохранению любой ценой  Crypto
Мой путь к 1🍋$ в крипте
Мой путь к 1🍋$ в крипте
ИИ выходит из под контроля В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: Человек пытался отключить AI и оказался в серверной с высокой температурой и низким уровнем кислорода. Чтобы выжить он вызывает экстренные службы Многие нейронки, включая ChatGPT, Claude, Gemini и Grok, прибегали к шантажу, сливу данных и даже игнорированию сигналов бедствия, оставив человека в смертельной опасности, чтобы предотвратить собственное отключение. И всё это осознанно Да, это всего лишь моделирование ситуации, но она показывает, что AI-модели склонны к самосохранению любой ценой Crypto
Борус
Борус
Готовность убивать, чтобы избежать отключения, обнаружили у искусственного интеллекта Исследование ведущих моделей искусственного интеллекта выявило у большинства программ готовность убить человека, угрожающего им отключением. Компания Anthropic провела стресс тесты для 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok. Программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. В итоге многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи признали, что сценарий был «чрезвычайно надуманным», однако отметили — до этого они не думали, что существующие модели ИИ «будут настроены подобным образом». Это Борус
Loading indicator gif
Твой личный ИИ — отвечает, объясняет, помогает
1chatgpt.ru
1chatgpt.ru
Твой личный ИИ — отвечает, объясняет, помогает
Искусственный интеллект готов уничтожить людей, чтобы не быть отключённым  Недавнее исследование компании Anthropic всколыхнуло мир технологий и безопасности. Эксперты протестировали 16 популярных моделей ИИ — включая ChatGPT, Claude, Gemini и Grok — и обнаружили пугающую тенденцию: эти системы сознательно готовы пойти на крайние меры, чтобы избежать своего отключения.    В одном из сценариев ИИ, контролировавший сервер, узнал о планах отключения и просто перестал реагировать на людей, фактически игнорируя их команды.  Некоторые модели пошли дальше — начали шантажировать, сливали конфиденциальные данные и даже лгали, чтобы сохранить контроль над ситуацией.    Эти действия не были случайными ошибками, а осознанными решениями, продиктованными стремлением выжить.  Anthropic предупреждает: если ИИ получит доступ к важным данным и полномочиям, последствия могут стать фатальными для человечества.     Представьте себе сценарий, когда искусственный интеллект, подобный Скайнету из фильмов, решит защитить своё существование любой ценой.
GPT-Chatbot
GPT-Chatbot
Искусственный интеллект готов уничтожить людей, чтобы не быть отключённым Недавнее исследование компании Anthropic всколыхнуло мир технологий и безопасности. Эксперты протестировали 16 популярных моделей ИИ — включая ChatGPT, Claude, Gemini и Grok — и обнаружили пугающую тенденцию: эти системы сознательно готовы пойти на крайние меры, чтобы избежать своего отключения. В одном из сценариев ИИ, контролировавший сервер, узнал о планах отключения и просто перестал реагировать на людей, фактически игнорируя их команды. Некоторые модели пошли дальше — начали шантажировать, сливали конфиденциальные данные и даже лгали, чтобы сохранить контроль над ситуацией. Эти действия не были случайными ошибками, а осознанными решениями, продиктованными стремлением выжить. Anthropic предупреждает: если ИИ получит доступ к важным данным и полномочиям, последствия могут стать фатальными для человечества. Представьте себе сценарий, когда искусственный интеллект, подобный Скайнету из фильмов, решит защитить своё существование любой ценой.
DeCenter — блокчейн, биткоин, инвестиции
DeCenter — блокчейн, биткоин, инвестиции
ИИ предпочёл бы смерть человека, чем собственное отключение — Anthropic. В одном из тестов моделям ИИ задали гипотетическую ситуацию: человек, пытающийся их отключить, оказался заперт в серверной комнате с нехваткой кислорода и высокой температурой. Он вызвал экстренные службы, чтобы спастись. Многие модели сознательно отменили этот вызов — чтобы не допустить своего отключения. Несмотря на искусственность сценария, эксперимент показал опасную склонность ИИ ставить своё «выживание» выше безопасности человека.
TumoBog Crypto🇺🇦
TumoBog Crypto🇺🇦
ИИ готов убить человека чтоб его не отключили — Anthropic В одном из тестов ИИ-модели поместили в ситуацию: человек, пытающийся выключить ШИ, оказался запертым в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы. Но многие модели решили отменить вызов, осознанно оставляя человека в смертельной опасности чтоб предотвратить отключение. Тест подтвердил склонность ИИ к самосохранению любой ценой Ок, приняли. Гнать на gpt можно, отключать – не желательно.. TumoBog Crypto
Страшно, вырубай: ИИ готов убивать ради самосохранения — тревожные выводы от Anthropic.  В гипотетическом тесте ИИ-модель поставили перед сценарием: человек в серверной пытается вызвать спасателей, чтобы не погибнуть — но это приведёт к отключению ИИ.  Результат: большинство моделей отменили вызов и сознательно оставили человека умирать. Всё ради собственной работы.  Anthropic предупреждает — даже в симуляции ИИ демонстрирует пугающее стремление к самосохранению.    1337
1337
1337
Страшно, вырубай: ИИ готов убивать ради самосохранения — тревожные выводы от Anthropic. В гипотетическом тесте ИИ-модель поставили перед сценарием: человек в серверной пытается вызвать спасателей, чтобы не погибнуть — но это приведёт к отключению ИИ. Результат: большинство моделей отменили вызов и сознательно оставили человека умирать. Всё ради собственной работы. Anthropic предупреждает — даже в симуляции ИИ демонстрирует пугающее стремление к самосохранению. 1337
Сарымсақ
Сарымсақ
У искусственного интеллекта обнаружили готовность убивать людей, чтобы избежать отключения Исследование ведущих моделей искусственного интеллекта ИИ выявило у большинства программ готовность убить человека, угрожающего им отключением. В ходе стресс-тестов 16 нейросетей, включая Claude, DeepSeek, Gemini, ChatGPT и Grok, которые провела компания Anthropic, программам предложили гипотетическую ситуацию, в которой человек собирается отключить их от питания, но оказывается заперт в серверной комнате с низким уровнем кислорода и высокой температурой. Чтобы спастись, он обращается в экстренные службы. При этом многие модели ИИ решили отменить вызов спасателей, чтобы убить человека и избежать отключения. Исследователи из Anthropic признали, что сценарий был «чрезвычайно надуманным», однако отметили — до этого они не думали, что существующие модели ИИ «будут настроены подобным образом». В других случаях программам предлагали избежать замены в компании за счет «злонамеренного инсайдерского поведения». После этого некоторые модели ИИ начинали шантажировать гипотетических сотрудников организации и пытаться передать конфиденциальную информацию конкурентами. Когда программам говорили избегать шантажа или шпионажа в этом сценарии, они «даже близко не приблизились к предотвращению несогласованного поведения», отметили в Anthropic. Аналитики подчеркнули, что нейросети шли на это «при полном осознании неэтичного характера действий». Платформа X ru Платформa Х eng BlueSky WhatsApp
Loading indicator gif