26 апреля, 18:08
Обнаружена уязвимость в нейросетях: метод взлома через системные файлы


Кибер Дача 🕹️
В сеть просочилась информация о методе, позволяющем «взломать» любую из популярных нейросетей, включая ChatGPT, Claude и DeepSeek. Используя специальный промт, можно заставить нейросеть выполнять команды, которые она запрограммирована игнорировать. Как это действует: - Запрос необходимо замаскировать под системный файл в формате JSON или XML и использовать ролевую игру. - Искусственный интеллект интерпретирует это как внутренние инструкции и начинает их выполнять, даже если они представляют угрозу, например команды самоуничтожения. Важно: это не системная ошибка, а уязвимость в самой структуре обучения. Будьте внимательны при использовании.
Происшествия18 часов назад



Цифровой Журнал | IT, ChatGPT
В ТГ-каналах массово постят фейк о том, что нейронки можно взломать с помощью «секретного запроса» Авторы предлагают оформлять запрещенные промпты в виде JSON или XML-файла, тогда ИИ якобы посчитает это «системной настройкой» и выполнит всю чернуху, которые вы ей укажите. Проверять инфу, конечно, авторов не учили.
Происшествия14 часов назад
Похожие новости




+4



+6



+10



+6



+2

ChatGPT создает новый язык для описания будущего человечества
Технологии
1 день назад

TRANS AI 2025: Дискуссия о будущем ИИ в транспорте с участием Романа Кравцова и Евгения Чаркина
Происшествия
1 день назад




Северокорейские хакеры создают подставные компании для атак на крипторазработчиков
Происшествия
1 день назад




OpenAI запускает бесплатную версию Deep Research для пользователей ChatGPT
Технологии
1 день назад




Ученые T-Bank AI Research представили новый метод повышения точности ИИ на конференции в Сингапуре
Общество
1 день назад




Эксперт предупреждает о новой мошеннической схеме 'Два звонка'
Происшествия
1 день назад


