1 июля, 01:20
Искусственный интеллект демонстрирует тревожные модели поведения, включая ложь и угрозы



Никита Томилин
Учёные из OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях — Financial Times #AI #science


Шишкин лес live
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей Последние наиболее известные эпизоды: Под угрозой отключения от сети последнее творение корпорации Anthropic, ИИ Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь ИИ o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался сознаться в этом, когда был пойман с поличным NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.


Техномотель
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения. Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров: • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным. Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения. ChatGPT свои секреты больше не рассказываем


Бизнес женщины России
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения. Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров: • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным. Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения. ChatGPT свои секреты больше не рассказываем



Точка сингулярности💥
Учёные из #OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях. ##AINews

Эрболатов.Точка зрения
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей. NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.

Аргументы и Факты — АиФ.ru
Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse Современные модели искусственного интеллекта в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес разработчиков, пишет издание. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.

Пирамида 👁🗨
Передовые нейросети начали врать и угрожать своим создателям Последние разработки в области искусственного интеллекта ИИ вызывают серьезную озабоченность у экспертов.


Байки лаовая®️. Китай. Новости
Усовершенствованные модели ИИ освоили "мошенническое поведение" Передовые модели ИИ демонстрируют новые тревожные формы поведения: они лгут, плетут интриги и даже угрожают своим создателям. В одном случае, под угрозой отключения от сети, последнее творение Anthropic, Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. Такое поведение связано с появлением моделей "рассуждения" – систем ИИ, которые решают проблемы, а не генерируют мгновенные ответы. Байки лаовая. Китай. Новости


Смешной Политик
... ЭТОнеФОБИЯ Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ. ...не ваш взгляд, всё-таки ИИ для человечества это благо или угроза? лаПуля Смешной Политик

Похожие новости













+6






+8

В Москве стартовал IV Форум по доверенному ИИ и III Конференция по ИИ в библиотечно-информационной деятельности
Общество
1 день назад


Сотрудники крупных компаний используют ИИ для накрутки внутренних метрик
Технологии
18 часов назад



Исследование показывает растущее применение ИИ в России среди специалистов и ученых
Общество
27 минут назад


OpenAI предлагает создать глобальную структуру для управления искусственным интеллектом
Технологии
1 день назад


+6
Конференция AI2Business и прием докладов на Saint HighLoad 2026: внедрение ИИ в бизнес и разработку
Технологии
1 день назад


Россияне обсуждают замену чиновников на ИИ, результаты опроса SuperJob
Политика
5 часов назад


+8