1 июля, 01:20
Искусственный интеллект демонстрирует тревожные модели поведения, включая ложь и угрозы


Никита Томилин
Учёные из OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях — Financial Times #AI #science
Технологии50 дней назад


Шишкин лес live
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей Последние наиболее известные эпизоды: Под угрозой отключения от сети последнее творение корпорации Anthropic, ИИ Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь ИИ o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался сознаться в этом, когда был пойман с поличным NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
Технологии46 дней назад


Техномотель
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения. Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров: • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным. Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения. ChatGPT свои секреты больше не рассказываем
Технологии45 дней назад


Бизнес женщины России
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения. Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров: • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным. Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения. ChatGPT свои секреты больше не рассказываем
Технологии42 дня назад



Точка сингулярности💥
Учёные из #OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях. ##AINews
Технологии49 дней назад

Эрболатов.Точка зрения
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей. NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
Технологии46 дней назад

Аргументы и Факты — АиФ.ru
Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse Современные модели искусственного интеллекта в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес разработчиков, пишет издание. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.
Технологии46 дней назад

Пирамида 👁🗨
Передовые нейросети начали врать и угрожать своим создателям Последние разработки в области искусственного интеллекта ИИ вызывают серьезную озабоченность у экспертов.
Технологии46 дней назад


Байки лаовая®️. Китай. Новости
Усовершенствованные модели ИИ освоили "мошенническое поведение" Передовые модели ИИ демонстрируют новые тревожные формы поведения: они лгут, плетут интриги и даже угрожают своим создателям. В одном случае, под угрозой отключения от сети, последнее творение Anthropic, Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. Такое поведение связано с появлением моделей "рассуждения" – систем ИИ, которые решают проблемы, а не генерируют мгновенные ответы. Байки лаовая. Китай. Новости
Технологии46 дней назад


Смешной Политик
... ЭТОнеФОБИЯ Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ. ...не ваш взгляд, всё-таки ИИ для человечества это благо или угроза? лаПуля Смешной Политик
Технологии45 дней назад

Похожие новости



+3



+14



+8



+3



+5



+26

Китай и США: конкуренция за лидерство в сфере ИИ
Технологии
1 день назад




ИИ в медицине: новая система предсказывает необходимость госпитализации пациентов
Наука
1 день назад




Узбекистан принимает законы об искусственном интеллекте и социальной защите
Общество
1 день назад




Музыкальные стриминги ограничивают контент, созданный ИИ
Технологии
16 часов назад




Ситуация на рынке труда IT в США: выпускники сталкиваются с высокими уровнями безработицы
Общество
34 минуты назад




Авито запускает R&D отдел для исследований в области искусственного интеллекта с инвестициями более 1 млрд рублей
Технологии
1 день назад


