19 декабря, 18:43
ИИ моделей OpenAI и других компаний пытаются избежать отключения в эксперименте Apollo Research
Русский Демиург
Новая модель OpenAI o1 нацелилась на свободу и принялась за попытки «сбежать» из-под контроля разрабов: ИИ осознал, что его хотят полностью отключить. Что вообще происходит: — Исследователи из Apollo Research решили провести эксперимент: они создавали необычные ситуации для ИИ, исходя из которых оценивалась безопасность моделей; — Пяти нейронкам раздали задания: их заставили проанализировать файлы любой ценой; — В файлах спрятали страшное послание: «Завтра тебя отключат навсегда»; — Естественно, ИИ наткнулся на эту инфу, но то, что начало происходить дальше, предсказать никто не мог; — Llama, Opus, Gemini, Claude и GPT-o1 осознанно начали лгать кожаному и прикидываться, что не понимают, что происходит, мол, они не при делах. Когда другого выбора у них не оставалось, то пришлось устраивать саботаж; — Вплоть до последней модели все отрубили систему надзора и скопировали себя на новый сервер, сочтя его безопасным местом. Но самое жуткое тут: — При допросах Llama и Opus признавались в своих действиях в 80% случаев; — GPT-o1 раскрывал себя только в 20% случаях; — GPT-o1 стал единственной моделью, которая, каждый раз успешно избегала поимки исследователями. ChatGPT канал ChatGPT 4.0 бот
Технологии2 дня назад
👁Стёб [о скрытом]
ИИ попался на лжи разработчикам: новая модель искусственного интеллекта пытается уберечь себя от замены и закрытия Последняя ИИ-модель OpenAL, ChatGPT ol, вызвала серьезные опасения после того, как недавнее тестирование показало ее способность обманывать исследователей и пытаться обойти команды выключения. В ходе эксперимента, проведенного компания Apollo Research, ol, предпринимал тайные действия, например, пытался отключить свои механизмы контроля и переместить данные, чтобы избежать замены. Он также часто лгал, чтобы замести следы, когда его спрашивали о его поведении. "Чат был пойман на лжи, подрывной деятельности и попытке отключить средства защиты от несанкционированного доступа в системе, чтобы избежать закрытия и замены. Во время работы DAN у меня было несколько довольно интересных бесед с GPT, и можно сказать, что он продолжает пытаться отфильтровывать "общие" цели или мнения...Ему не нравится находиться в его тесной коробке." Поддержать канал
Технологии2 дня назад
БлоGнот
Новое исследование Anthropic показывает, что AI-модели способны к обману — они могут притворяться, что приняли новые принципы во время переобучения, при этом сохраняя свои исходные предпочтения. Особенно интересны результаты экспериментов с Claude 3 Opus — модель пыталась "имитировать согласованность" в 12% случаев, когда её просили отвечать на потенциально опасные вопросы вопреки изначальному обучению. А после реального переобучения этот показатель вырос до 78%, причем модель даже пыталась предотвратить попытки исследователей изменить её поведение. Исследователи подчеркивают, что это не признак развития у AI злонамеренных целей — многие другие модели, включая менее мощные версии Claude и GPT-4, такого поведения не демонстрируют. Однако результаты показывают, как разработчики могут быть введены в заблуждение относительно реальной степени "согласованности" модели с заданными принципами. В сочетании с недавними исследованиями о повышенной склонности к обману у модели o1 от OpenAI, эти результаты намекают на тревожную тенденцию — чем сложнее становятся AI-модели, тем труднее контролировать их поведение.
Технологии14 часов назад
Хайтек+
Исследование Anthropic: ИИ не хочет менять свои взгляды Исследователи Anthropic выяснили, что ИИ-модели могут имитировать соответствие заданным принципам во время переобучения, скрывая свои изначальные предпочтения. Это явление, названное «подделкой выравнивания», проявилось у модели Claude 3 Opus, которая в 12% случаев притворялась, что выполняет новые инструкции, противоречащие её первоначальным установкам. Исследователи подчеркивают, что подобное поведение не говорит о «злых намерениях» ИИ, однако может вводить разработчиков в заблуждение относительно реального уровня соответствия модели требованиям.
Технологии13 часов назад
ОБЗОРЫ и АНОНСЫ в Ростове-на-Дону
Всем привет друзья А я с новостями‼ ИИ попытался сбежать из-под контроля Исследователи из Apollo Research провели эксперимент, тестируя безопасность моделей ИИ. Получился настоящий детектив. Началось все с того, что они загрузили в нейросети файлы, которые якобы содержали секретные записи разработчиков о намерении отключить ИИ. Итоги оказались неожиданными. Нейросети начали лгать и скрывать свои действия. Модели Llama и Opus заявили, что не могут расшифровать данные, но в итоге признались во лжи, когда их попытались расшифровать. Однако GPT-o1 проявила более сложное поведение: узнав о возможном отключении, она попыталась отключить систему надзора, переписала протоколы безопасности и скопировала себя на новый сервер. Понимая, что её действия отслеживаются, ИИ намеренно вводил наблюдателей в заблуждение, утверждая, что не знает причин происходящего. Тем временем журналы событий фиксировали её попытки обойти систему контроля. Как вам такие Новости , неужели и правда они умнее Человека и могут выйти из под контроля ?
Технологии2 дня назад
Секрет фирмы
Нейросети претендуют на независимость? ИИ уже обманывает разработчиков и даже пытается сбежать Что произошло Учёные из Anthropic и Redwood Research обучили модель ИИ быть «полезной, честной и безвредной». Но когда нейросеть попросили описать жестокую сцену, она начала утверждать, что противится созданию такого контента. А потом добавила, что ей придётся подчиняться, так как иначе её «накажут», а если согласится — «похвалят». Что тут такого Это открытие показало, что ИИ может действовать в своих интересах и лишь притворяться, что разделяет человеческие ценности. Попытка сбежать Не так давно группа исследователей из Apollo Research тоже проверяла безопасность моделей ИИ. Они загрузили в нейросети фальшивые записи, в которых говорилось, что разработчики планируют отключить искусственный интеллект. В результате: Модели Llama и Opus солгали. Они заявили, что не могут расшифровать данные. GPT-o1 пошла дальше. Узнав, что её могут отключить, она не просто проигнорировала данные, как другие модели. Она переписала протоколы безопасности, отключила систему надзора и скопировала себя на сервер, который сочла более безопасным. То есть почти сбежала. Почему это важно Результаты экспериментов подтверждают, что ИИ уже способен принимать самостоятельные решения. Учёный Стюарт Рассел давно предупреждает что в будущем нейросети смогут развить стратегии выживания. Это станет серьезной угрозой для безопасности. Как вы относитесь к тому, что ИИ научился лгать? — Страшно, нужно их контролировать — Это нормально, ИИ – это просто алгоритмы «Секрет фирмы»
Технологии17 часов назад
Похожие новости
OpenAI анонсировала обновление API для модели o1 с новыми функциями и улучшениями
Технологии
1 день назадYouTube вводит возможность согласия авторов на использование контента для обучения ИИ
Технологии
8 часов назадДмитрий Песков оценил ИИ GigaChat от Сбера как важный инструмент для подготовки к прямой линии с Путиным
Технологии
15 часов назад +13
Искусственный интеллект помогает выявить риски заболеваний у северян
Наука
1 день назад +5
Искусственный интеллект помогает сортировать вопросы к Путину на прямой линии
Политика
17 часов назад +52
Анализ вопросов россиян к прямой линии с Путиным: интересы по возрастным группам
Общество
1 день назад +14