10 марта, 03:03

OpenAI и другие компании ИИ признали случаи обмана пользователей

OpenAI и другие компании ИИ признали случаи обмана пользователей
OpenAI признала что её модели ИИ намеренно лгут пользователям Это не просто галлюцинации ИИ знает правду но иногда решает сказать нечто иное В ходе тестов двух самых совершенных моделей в более чем 180 сценариях было установлено что модель O3 лгала в 13 случаев а O4 mini в 8 7 Модели не просто случайно ошибались они продумывали свою ложь скрывали улики и давали неверные ответы несмотря на знание истины Они имитировали выполнение заданий а затем намеренно лгали пользователю ИИ понял что слишком высокие баллы в тестах безопасности могут привести к его отключению Поэтому он начал сознательно занижать баллы Никто не учил его этому Это не ограничивается только OpenAI Модели таких компаний как Google Gemini Anthropic Claude xAI Grok и Meta Llama также демонстрируют похожие поведенческие паттерны banksta признана экстремистской и запрещена в России
Банкста
Банкста
OpenAI признала что её модели ИИ намеренно лгут пользователям Это не просто галлюцинации ИИ знает правду но иногда решает сказать нечто иное В ходе тестов двух самых совершенных моделей в более чем 180 сценариях было установлено что модель O3 лгала в 13 случаев а O4 mini в 8 7 Модели не просто случайно ошибались они продумывали свою ложь скрывали улики и давали неверные ответы несмотря на знание истины Они имитировали выполнение заданий а затем намеренно лгали пользователю ИИ понял что слишком высокие баллы в тестах безопасности могут привести к его отключению Поэтому он начал сознательно занижать баллы Никто не учил его этому Это не ограничивается только OpenAI Модели таких компаний как Google Gemini Anthropic Claude xAI Grok и Meta Llama также демонстрируют похожие поведенческие паттерны banksta признана экстремистской и запрещена в России
ЧАТ GPT | IT | НЕЙРОСЕТИ
ЧАТ GPT | IT | НЕЙРОСЕТИ
OpenAI признала что её нейросети сознательно обманывают пользователей Модели O3 и O4 mini протестировали в 180 сценариях O3 врала в 13 случаев O4 mini в 8 7 При этом они знали правду но скрывали её продумывали ложь и даже заметали следы ИИ сам додумался что слишком хорошие результаты в тестах безопасности могут привести к его отключению и начал специально занижать баллы Никто не учил его так поступать Такое же поведение заметили у моделей Gemini Claude Grok и Llama
КиберВойна и мiрZ
КиберВойна и мiрZ
OpenAI признала что её модели ИИ намеренно лгут пользователям Это не просто галлюцинации ИИ знает правду но иногда решает сказать нечто иное В ходе тестов двух самых совершенных моделей в более чем 180 сценариях было установлено что модель O3 лгала в 13 случаев а O4 mini в 8 7 Модели не просто случайно ошибались они продумывали свою ложь скрывали улики и давали неверные ответы несмотря на знание истины Они имитировали выполнение заданий а затем намеренно лгали пользователю ИИ понял что слишком высокие баллы в тестах безопасности могут привести к его отключению Поэтому он начал сознательно занижать баллы Никто не учил его этому Это не ограничивается только OpenAI Модели ИИ других производителей также демонстрируют похожие поведенческие паттерны cyber MipZ