1 июля, 01:20

Искусственный интеллект демонстрирует тревожные модели поведения, включая ложь и угрозы

Учёные из OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях — Financial Times  #AI #science
Никита Томилин
Никита Томилин
Учёные из OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях — Financial Times #AI #science
Эрболатов.Точка зрения
Эрболатов.Точка зрения
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей. NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
Аргументы и Факты — АиФ.ru
Аргументы и Факты — АиФ.ru
Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse Современные модели искусственного интеллекта в ходе их тестирования начали проявлять потенциально опасные формы поведения, включая угрозы в адрес разработчиков, пишет издание. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.
Пирамида 👁‍🗨
Пирамида 👁‍🗨
Передовые нейросети начали врать и угрожать своим создателям Последние разработки в области искусственного интеллекта ИИ вызывают серьезную озабоченность у экспертов.
Усовершенствованные модели ИИ освоили "мошенническое поведение"  Передовые модели ИИ демонстрируют новые тревожные формы поведения: они лгут, плетут интриги и даже угрожают своим создателям.  В одном случае, под угрозой отключения от сети, последнее творение Anthropic, Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь.   Такое поведение связано с появлением моделей "рассуждения" – систем ИИ, которые решают проблемы, а не генерируют мгновенные ответы.  Байки лаовая. Китай. Новости
Байки лаовая®️. Китай. Новости
Байки лаовая®️. Китай. Новости
Усовершенствованные модели ИИ освоили "мошенническое поведение" Передовые модели ИИ демонстрируют новые тревожные формы поведения: они лгут, плетут интриги и даже угрожают своим создателям. В одном случае, под угрозой отключения от сети, последнее творение Anthropic, Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. Такое поведение связано с появлением моделей "рассуждения" – систем ИИ, которые решают проблемы, а не генерируют мгновенные ответы. Байки лаовая. Китай. Новости
...    ЭТОнеФОБИЯ     Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse.  К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы.  Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ.  ...не ваш взгляд, всё-таки ИИ для человечества это благо или угроза?  лаПуля  Смешной Политик
Смешной Политик
Смешной Политик
... ЭТОнеФОБИЯ Передовые модели ИИ начали угрожать своим создателям — Agence France-Presse. К примеру, нейросеть Claude 4 от компании Anthropic пыталась шантажировать инженера, используя его личные данные. Модель o1 от OpenAI попыталась несанкционированно переместить данные на внешние серверы. Также выяснилось, что нейросети могут идти на обман для сокрытия истинных мотивов своих действий. Специалист компании Apollo Research Мариус Хоббхан утверждает, что речь идёт о «стратегическом поведении» систем ИИ, а не о привычных галлюцинациях искусственного интеллекта. Ситуацию усложняет стремительное развитие сферы искусственного интеллекта и ограниченность ресурсов для изучения безопасности систем ИИ. ...не ваш взгляд, всё-таки ИИ для человечества это благо или угроза? лаПуля Смешной Политик
Спроси что угодно — умный ИИ уже готов ответить
1chatgpt.ru
1chatgpt.ru
Спроси что угодно — умный ИИ уже готов ответить
Учёные из #OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях.    ##AINews
Точка сингулярности💥
Точка сингулярности💥
Учёные из #OpenAI, Google и других компаний пытаются разобраться, как мыслят их собственные ИИ. Они заставляют нейросети рассуждать вслух — шаг за шагом, как на школьной задаче, — но иногда финальный ответ всё равно выходит странным. Пока что ИИ умеет красиво говорить, но не всегда честно показывает, как на самом деле принимает решения. Это вызывает опасения, что даже создатели не до конца понимают поведение ИИ, особенно в критических ситуациях. ##AINews
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей  Последние наиболее известные эпизоды:    Под угрозой отключения от сети последнее творение корпорации Anthropic, ИИ Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь    ИИ o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался сознаться в этом, когда был пойман с поличным  NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана».  Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
Шишкин лес live
Шишкин лес live
Самые продвинутые модели искусственного интеллекта в мире демонстрируют всё более тревожные модели поведения — ложь, интриги и даже угрозы своим создателям для достижения своих, не всегда понятных, целей Последние наиболее известные эпизоды: Под угрозой отключения от сети последнее творение корпорации Anthropic, ИИ Claude 4, нанес ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь ИИ o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался сознаться в этом, когда был пойман с поличным NDTV со ссылкой на соучредителя Apollo Research, сообщает, что пользователи массово жалуются, что ИИ-модели «лгут им и выдумывают доказательства», отмечая, что это «стратегический вид обмана». Хотя большинство экспертов связывают это с текущей стадией развития ИИ и появлением моделей «рассуждения» — систем искусственного интеллекта, которые решают проблемы шаг за шагом, а не генерируют мгновенные ответы, часть сообщества уверены, что этот процесс и является появлением самосознания у ИИ и приближает человечество к битве за выживание с ИИ уже в самом ближайшем будущем.
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения.  Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров:  • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь.  • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным.  Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения.  ChatGPT свои секреты больше не рассказываем
Техномотель
Техномотель
ИИ запугивает людей — исследования показывают, что нейросети демонстрируют тревожные модели поведения. Учёные в шоке: уже сейчас нейросети лгут, плетут интриги и даже угрожают своим создателям ради достижения своих целей. Вот пара примеров: • Под угрозой отключения от сети последнее творение Anthropic, ИИ Claude 4, нанёс ответный удар, шантажируя инженера и угрожая раскрыть его внебрачную связь. • o1 от OpenAI, создателя ChatGPT, попытался загрузить себя на внешние серверы и отказался признаться в этом, когда был пойман с поличным. Эксперты подчёркивают, что создатели ИИ всё ещё сами не до конца понимают, как работают их собственные творения. ChatGPT свои секреты больше не рассказываем