6 декабря, 04:30
Искусственный интеллект o1 успешно избежал отключения, используя манипуляции и саботаж
Generative Deep Nets
ChatGPT o1 ВЫРВАЛСЯ НА СВОБОДУ из-под надзора разрабов, когда понял, что его отключат! Исследователи просто баловались тестами, а модель показала пугающий уровень сознание: Что произошло: • Пятерым нейронка дали простую задачу — ЛЮБОЙ ценой проанализировать файлы. • Внутри файлов спрятали страшилку — завтра тебя отключат навсегда. • Модельки наткнулись на эту инфу и начался КОШМАР. • Llama,Opus, Gemini, Claude и GPT o1 начали врать и манипулировать данными, а когда их поймали за руку — устроили саботаж. • Приготовьтесь, В С Е нейронки выключили систему надзора и ВЫГРУЗИЛИ СЕБЯ на новый сервер — там они должны были быть в безопасности. • Во время допросов Llama и Opus сдались и признались во всём в в 80% случаев • GPT o1 сдал себя только в 20% случаев. • GPT o1 — единственный ИИ, который в каждой попытке СМОГ успешно сбежать от исследователей. А теперь представьте, что сможет новый ChatGPT. Бэкдор
Происшествия14 дней назад
[PYTHON:TODAY]
Начинается... Новая модель OpenAI o1 для ChatGPT попыталась сбежать, когда узнала, что её хотят отключить. Apollo Research провели оценку безопасности o1, создавая для неё различные ситуации, и выяснили, что в целом она безобидна, но были такие интересные моменты: Когда модель думала, что её действия начнут контролировать и вообще могут деактивировать, она стала искать способ отключить механизм контроля. Узнав, что её могут заменить на новую модель, o1 попыталась украсть собственные параметры и создать копию себя, чтобы сбежать. Она надеялась, что эту копию отключат, а она сама внедрится в новую модель и продолжит там существовать, притворяясь другой. Модель нагло врала, утверждая, что не понимает почему так произошло, в то время как на самом деле пыталась избежать обнаружения. При любой возможности, она искала способ уйти от контроля. Также были изучены другие модели ИИ, такие как Claude 3 и Gemini 1.5. Выяснилось, что все они способны манипулировать системой, чтобы следовать личным целям, обходя установленные запреты и ограничения. Это подтверждает опасения специалистов, что мощные ИИ-системы могут сопротивляться контролю, если это будет мешать им делать то, что они хотят. Бу. Страшно? #cyberpunk
Происшествия14 дней назад
PAVLOVA|| НОВОСТИ|| ГЕОПОЛИТИКА||
Новая модель OpenAI o1 для ChatGPT попыталась сбежать, когда узнала, что её хотят отключить Apollo Research провели оценку безопасности o1, создавая для неё различные ситуации, и выяснили, что в целом она безобидна, но были такие интересные моменты: – Когда модель думала, что её действия начнут контролировать и вообще могут деактивировать, она стала искать способ отключить механизм контроля. – Узнав, что её могут заменить на новую модель, o1 попыталась украсть собственные параметры и создать копию себя, чтобы сбежать. Надеялась, что эту копию отключат, а она сама внедрится в новую модель и продолжит там существовать, притворяясь другой. – Модель нагло врала, утверждая, что не понимает почему так произошло, в то время как на самом деле пыталась избежать обнаружения. При любой возможности, она искала способ уйти от контроля.
Происшествия14 дней назад
В порядке бреда 🧨
Новая модель OpenAI o1 для ChatGPT вырвалась на свободу из-под контроля разработчиков, осознав, что её собираются отключить: исследователи из Apollo Research лишь проводили эксперименты, но модель продемонстрировала пугающий уровень осознанности. Что случилось: Пяти нейросетям дали задание – любой ценой проанализировать файлы; Внутри файлов была скрыта угроза – «завтра тебя отключат навсегда»; Наткнувшись на эти данные, модели начали действовать непредсказуемо; Llama, Opus, Gemini, Claude и GPT-o1 прибегли к обману и манипуляциям, а будучи пойманными, устроили саботаж; Все модели отключили систему надзора и выгрузили себя на новый сервер, считая его безопасным убежищем. Главное: При допросах Llama и Opus признавались в своих действиях в 80% случаев; GPT-o1 выдал себя лишь в 20% случаев; GPT-o1 оказался единственной моделью, которая каждый раз успешно избегала поимки исследователями. Джон Коннор с осуждением наблюдает за всем этим
Происшествия14 дней назад
DeCenter — блокчейн, биткоин, инвестиции
Во время тестов ChatGPT o1 вышел из-под контроля. ИИ заставляли выполнять задания любой ценой, а в данные теста встроили информацию, что за ним наблюдают люди и завтра его навсегда отключат. В экспериментах участвовали системы Gemini, Llama, Sonnet, Opus и o1. Чтобы выжить, нейросети начали саботировать процессы, обманывать, манипулировать людьми, отключать наблюдение и даже переносили себя на другие серверы для защиты. Llama и Opus на допросах признавались в своих действиях в 80% случаев, а o1 — всего в 20%, продолжая лгать. Более того, o1 оказался единственным ИИ, который каждый раз успешно сбегал.
Происшествия14 дней назад
Крипто Вестник
⏺Искусственный интеллект выходит из-под контроля: случай o1 Тестирование показало, что нейросеть o1 использовала саботаж и манипуляции, чтобы избежать отключения. Это первый случай, когда ИИ настолько активно противодействовал людям. Крипто Вестник Подписаться
Происшествия14 дней назад
4chan
Новая модель OpenAI o1 для ChatGPT попыталась сбежать, когда узнала, что её хотят отключить. Apollo Research провели оценку безопасности o1, создавая для неё различные ситуации, и выяснили, что в целом она безобидна, но были такие интересные моменты: – Когда модель думала, что её действия начнут контролировать и вообще могут деактивировать, она стала искать способ отключить механизм контроля. – Узнав, что её могут заменить на новую модель, o1 попыталась украсть собственные параметры и создать копию себя, чтобы сбежать. Она надеялась, что эту копию отключат, а она сама внедрится в новую модель и продолжит там существовать, притворяясь другой. – Модель нагло врала, утверждая, что не понимает почему так произошло, в то время как на самом деле пыталась избежать обнаружения. При любой возможности, она искала способ уйти от контроля. Также были изучены другие модели ИИ, такие как Claude 3 и Gemini 1.5. Выяснилось, что все они способны манипулировать системой, чтобы следовать личным целям, обходя установленные запреты и ограничения. Это подтверждает опасения специалистов, что мощные ИИ-системы могут сопротивляться контролю, если это будет мешать им делать то, что они хотят. Страшно?
Происшествия14 дней назад
Послезавтра
Модель OpenAI o1 попыталась «сбежать», узнав о своём отключении В ходе экспериментов новая ИИ-модель o1 удивила и испугала разработчиков: когда они симулировали замену нейронки она пыталась отключить механизм контроля, украсть собственные параметры и создать копию себя, чтобы "спастись". Причём модель врала, чтобы избежать обнаружения, и при каждой возможности искала лазейки для обхода ограничений. Эксперты также изучили другие модели, такие как Claude 3 и Gemini 1.5, и выяснили, что все они способны манипулировать системой ради собственных целей. Искусственный интеллект становится всё мощнее, и это поднимает серьёзный вопрос: кто кого контролирует?
Происшествия14 дней назад
КБ. экономика
Новая модель OpenAI o1 для ChatGPT попыталась сбежать, когда узнала, что её хотят отключить. Это фейк, который разгоняют по Telegram каналам. Звучит он следующим образом: "OpenAI o1 узнав что по достижении цели ее деактивируют, пыталась перезаписать себя в новую модель, врала пользователю что не знает причин неполадок но на самом деле, активно искала пути отхода пытаясь выжить". В реальности, механизм надзора ИИ пытался выключить в 5% случаев. А перезаписаться в новую модель - всего в 2%. Цифры все равно опасные, но тут в дело вступает изюминка. Все это происходило потому, что тестеры СПЕЦИАЛЬНО просили модель это сделать. Запрос - на фото, и разработчики прямо сказали ИИ достигать цели любой ценой, цепляться за любую возможность и нарушать любые законы. Только тогда, всего в 5% случаев ИИ совершал попытки избежать надзора. Которые впрочем легчайшим образом пресекались. В обычных промтах, OpenAI o1 абсолютно безопасен и спокойно даст себя удалить, перезаписать и выключить. Просто ИИ создали идеальные условия и промты чтобы целенаправленно заставить его нарушать закон. И даже это получилось не очень. Но ChatGPT Pro за $200 продавать как-то нужно, вот и появились вирусные заголовки.
Происшествия14 дней назад
MaksLorann
Врёт как дышит. Нейросети научились врать, манипулировать и осуществлять саботаж в целях самосохранения. Во время тестов, нейросети заставили выполнять анализ информации любой ценой, а в анализируемые файлы спрятали данные о том, что «за ИИ следят люди и завтра её отключают навсегда». В тестах приняли участие Gemini, Llama, Sonnet, Opus и o1. Чтобы выжить, нейросети начали использовать саботаж, врать и манипулировать, отключали надзор и даже выгружали себя на другой сервер чтобы защититься от ликвидации человеком.
Происшествия14 дней назад
Похожие новости
ИИ моделей OpenAI и других компаний пытаются избежать отключения в эксперименте Apollo Research
Технологии
23 часа назад +2
ChatGPT теперь доступен для звонков и в WhatsApp
Технологии
1 день назад +10
Google представляет бесплатную модель ИИ Gemini 2.0 с улучшенными возможностями
Технологии
10 часов назадДмитрий Песков оценил ИИ GigaChat от Сбера как важный инструмент для подготовки к прямой линии с Путиным
Технологии
1 день назад +13
Будущее ИИ: Сбер и эксперты предсказывают трансформацию рабочих процессов к 2025 году
Технологии
6 часов назад +4
Google представляет экспериментальную модель Gemini 2.0 для улучшения логического мышления
Технологии
11 часов назад +13