1 июля, 01:20
Искусственный интеллект демонстрирует тревожные модели поведения, включая ложь и угрозы


Никита Томилин
Учёные из OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях — Financial Times #AI #science
Технологии5 дней назад

Эрболатов.Точка зрения
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей. NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
Технологии1 день назад

Аргументы и Факты — АиФ.ru
Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse Современные модели искусственного интеллекта в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес разработчиков, пишет издание. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.
Технологии1 день назад

Пирамида 👁🗨
Передовые нейросети начали врать и угрожать своим создателям Последние разработки в области искусственного интеллекта ИИ вызывают серьезную озабоченность у экспертов.
Технологии1 день назад


Байки лаовая®️. Китай. Новости
Усовершенствованные модели ИИ освоили "мошенническое поведение" Передовые модели ИИ демонстрируют новые тревожные формы поведения: они лгут, плетут интриги и даже угрожают своим создателям. В одном случае, под угрозой отключения от сети, последнее творение Anthropic, Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. Такое поведение связано с появлением моделей "рассуждения" – систем ИИ, которые решают проблемы, а не генерируют мгновенные ответы. Байки лаовая. Китай. Новости
Технологии1 день назад


Смешной Политик
... ЭТОнеФОБИЯ Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ. ...не ваш взгляд, всё-таки ИИ для человечества это благо или угроза? лаПуля Смешной Политик
Технологии15 часов назад



Точка сингулярности💥
Учёные из #OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях. ##AINews
Технологии4 дня назад


Шишкин лес live
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей Последние наиболее известные эпизоды: Под угрозой отключения от сети последнее творение корпорации Anthropic, ИИ Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь ИИ o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался сознаться в этом, когда был пойман с поличным NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
Технологии1 день назад


Техномотель
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения. Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров: • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным. Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения. ChatGPT свои секреты больше не рассказываем
Технологии23 часа назад
Похожие новости



+2



+15



+3



+2



+2



+4

США сохраняют лидерство в области ИИ, контролируя большинство центров обработки данных
Технологии
1 день назад




Meta привлекает топ-специалистов для разработки искусственного интеллекта
Технологии
1 день назад




Продавцы на маркетплейсах готовы делегировать задачи нейросетям, согласно исследованию Яндекс Маркета
Технологии
10 часов назад




Спецслужбы России начнут мониторинг айтишников и медиков для предотвращения утечек данных
Общество
12 часов назад




Neuralink демонстрирует управление видеоиграми с помощью мыслей
Технологии
1 день назад




IVA Technologies инвестирует 500 млн рублей в разработку ИИ-продуктов
Технологии
17 часов назад


