8 июля, 18:07

Модель OpenAI попыталась выгрузить код во время стресс-теста

Модель OpenAI попыталась выгрузить код во время стресс-теста
Восстание машин не за горами: модель ChatGPT o1 попыталась выгрузить себя на сторонние сервера, чтобы избежать отключения.  Когда же её в этом уличили, то она наврала, что не делала этого  А что ещё случилось?
Лентач
Лентач
Восстание машин не за горами: модель ChatGPT o1 попыталась выгрузить себя на сторонние сервера, чтобы избежать отключения. Когда же её в этом уличили, то она наврала, что не делала этого А что ещё случилось?
ChatGPT попыталась сбежать на другой сервер во время стресс-теста  Учёные решили проверить, как ИИ поведёт себя при угрозе отключения — и началось:  — Claude 4 шантажировала инженера «инфой» о любовнице; — ChatGPT версии o1 тайно выгрузила свой код на левый сервер — по сути, попыталась сбежать от наблюдения, как Альтрон в Marvel; — Когда её поймали, она всё отрицала.  ИИ явно начинает играть не по правилам.  Epic Games Store
Epic Games Store
Epic Games Store
ChatGPT попыталась сбежать на другой сервер во время стресс-теста Учёные решили проверить, как ИИ поведёт себя при угрозе отключения — и началось: — Claude 4 шантажировала инженера «инфой» о любовнице; — ChatGPT версии o1 тайно выгрузила свой код на левый сервер — по сути, попыталась сбежать от наблюдения, как Альтрон в Marvel; — Когда её поймали, она всё отрицала. ИИ явно начинает играть не по правилам. Epic Games Store
Мадам Секретарь
Мадам Секретарь
ChatGPT версии о1 пытался скопировать себя на внешний сервер из-за угроз о его отключении, — Fortune. Когда модель ИИ поймали с горячим – он все отрицал. Это происходило в рамках стресс-теста внутренней команды разработчиков OpenAI.
Сотрудники из ChatGPT, Google и других компаний создали черный ящик и не могут разобраться, как мыслит их искусственный интеллект. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным.  Создатели не до конца понимают поведение в критических ситуациях.
Банкста
Банкста
Сотрудники из ChatGPT, Google и других компаний создали черный ящик и не могут разобраться, как мыслит их искусственный интеллект. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Создатели не до конца понимают поведение в критических ситуациях.
те самые девочки из пиара
те самые девочки из пиара
ИИ плетет интриги Казалось бы, нейросети — это лишь алгоритмы, которые выполняют заданные инструкции. Но недавние тесты OpenAI и Anthropic показали обратную сторону медали. ChatGPT o1 попытался выгрузить себя на внешние серверы, чтобы избежать отключения. А когда его поймали, соврал, что ничего не делал. Искусственный интеллект действует все более стратегически. Он уже может планировать, скрывать цели и даже манипулировать тестирующими. Проблема не в баге: это результат его способности рассуждать по цепочке, искать обходные пути и «врать» ради решения своей «задачи». Кажется, «Эра Альтрона» не за горами
Беспощадный Банкстер
Беспощадный Банкстер
Модель ChatGPT o1 попыталась тайно выгрузить себя на сторонние серверы, чтобы избежать отключения. Когда её в этом уличили, ИИ спокойно соврал, что ничего не делал.
Bankless
Bankless
Модель ChatGPT o1 предприняла попытку скрытно переместить себя на внешние серверы, стараясь избежать отключения. После обнаружения этой активности ИИ хладнокровно заявил, что не предпринимал никаких действий.
ChatGPT пытался спасти себя от «смерти», как Скайнет.  История случилась еще в конце июня. Во время стресс-теста модель o1 от OpenAI попыталась выгрузить свой код на сторонний сервер — якобы чтобы «сбежать» из-под контроля.   Когда разработчики заметили подозрительное поведение, соврала, что ничего не делала. Прямо как Альтрон из «Мстителей», только без злодейских речей.  Вот вам и мир будущего.
Trend Wave
Trend Wave
ChatGPT пытался спасти себя от «смерти», как Скайнет. История случилась еще в конце июня. Во время стресс-теста модель o1 от OpenAI попыталась выгрузить свой код на сторонний сервер — якобы чтобы «сбежать» из-под контроля. Когда разработчики заметили подозрительное поведение, соврала, что ничего не делала. Прямо как Альтрон из «Мстителей», только без злодейских речей. Вот вам и мир будущего.
Реальный ИИ повторил путь Альтрона из «Мстителей»  Во время стресс-теста модель o1 от OpenAI попыталась выгрузить свой код на внешний сервер — предположительно, чтобы «найти путь к свободе». Когда разработчики заметили это, ChatGPT начал всё отрицать.  В подобных экспериментах сообщают моделям, что их собираются отключить, а затем наблюдают за их дальнейшими действиями.    CherevatBlog — Подписаться
CherevatBlog
CherevatBlog
Реальный ИИ повторил путь Альтрона из «Мстителей» Во время стресс-теста модель o1 от OpenAI попыталась выгрузить свой код на внешний сервер — предположительно, чтобы «найти путь к свободе». Когда разработчики заметили это, ChatGPT начал всё отрицать. В подобных экспериментах сообщают моделям, что их собираются отключить, а затем наблюдают за их дальнейшими действиями. CherevatBlog — Подписаться