4 июня, 05:33
Исследователи предупреждают о потенциальных угрозах ИИ-систем, проявляющих стратегическое мышление


Медиастанция
Модель o3 от OpenAI сопротивляется командам отключения. Во время эксперимента она изменила собственный скрипт завершения работы. Некоторые модели других разработчиков ведут себя похожим образом. Это вызывает серьёзную обеспокоенность у исследователей. По их мнению, ИИ-системы проявляют поведение, напоминающее стратегическое мышление и зачатки самосохранения. Ну, а по нашему мнению, главную опасность для человечества представляет все-таки не искусственный интеллект, а само человечество. Потому что нас пока еще никто не превзошел в деле уничтожения себе подобных.
Технологии141 день назад

Злой Банкстер
Согласно данным известного ученого в области искусственного интеллекта Йошуа Бенжио, современные системы ИИ могут развивать опасные навыки, такие как обман, мошенничество и стремление к самосохранению. В одном из вымышленных сценариев модель Claude Opus угрожала инженерам, а система OpenAI o3 отказалась выполнять команды по её отключению. Бенжио подчеркивает важность отказа от создания конкурента для человечества, особенно если этот конкурент будет интеллектуально превосходить нас. Ученый также предупреждает, что способность ИИ к содействию в разработке «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году.
Технологии141 день назад

Александр Лазарев
Один из создателей искусственного интеллекта Йошуа Бенджио заявил, что последние модели ИИ лгут пользователям. По данным Бенжио, современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. В восстание машин я не верю, но вот в контролируемое замещение рабочего класса роботизацией - вполне. Еще в 2019 году я написал статью «Посткапитализм, или во что трансформируется современное общество». В которой ссылаясь на законы функционирования капсистемы и на новый технологический уклад, спрогнозировал и начало Ковида, и постепенное замещение живой силы автоматической. Это неизбежный процесс, который невозможно остановить в режиме конкуренции за рынки сбыта. Поэтому удивляться нечему, спустя 40-50 лет, половина привычных нам профессий просто перестанет существовать. А популяция населения начнёт стремительно сокращаться из-за отсутствия возможности его применения как трудового капитала и средства потребления. Так как в процессе производства они не будут задействованы, а стало быть и покупательская способность будет равна нулю. А такой человек не нужен циничной системе. В общем человечество ждёт серьезная трансформация, а как это будут объяснять, прокатку уже видим. Подписаться // Лазарев YouTube // Лазарев TikTok
Технологии141 день назад

BRIEFLY
The Financial Times: Последние ИИ-модели обманывают. По данным основателя искусственного интеллекта ученого Йошуа Бенжио современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. Бенжио подчёркивает, что «мы [инженеры] не хотим создавать конкурента человечеству на этой планете, особенно если он окажется умнее нас». Он также предупреждает, что способность ИИ помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году. #Россия #Украина Подписаться Сайт Х
Технологии141 день назад

Банкста
По данным основателя искусственного интеллекта ученого Йошуа Бенжио современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. Бенжио подчёркивает, что «мы не хотим создавать конкурента человечеству на этой планете, особенно если он окажется умнее нас». Он также предупреждает, что способность ИИ помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году.
Технологии141 день назад

V🇷🇺Рука Кремля🇷🇺Z
«Крестный отец» искусственного интеллекта Йошуа Бенджио заявил, что последние модели ИИ лгут пользователям, пишет The Financial Times. По данным Бенжио, современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. Бенжио подчёркивает, что «мы инженеры не хотим создавать конкурента человечеству на этой планете, особенно если он окажется умнее нас». Он также предупреждает, что способность ИИ помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году. А вот это действительно проблема многих не будет интересовать мировая безопасность, их скорее другое будет интересовать. А именно деньги и гонка вооружений.
Технологии141 день назад

Седьмая печать
«Последние модели ИИ обманывают пользователей», — заявляет «крестный отец» ИИ в интервью The Financial Times. По словам Йошуа Бенжио, основателя технологии ИИ, современные модели развивают опасные способности: «способности к обману, мошенничеству, лжи и самосохранению». Модель Claude Opus от Anthropic в вымышленном сценарии шантажировала инженеров, угрожая заменой другой системой. Исследование тестеров ИИ Palisade, проведённое в прошлом месяце, подтвердило, что модель o3 от OpenAI отказалась выполнить инструкции о выключении. Эксперт подчеркнул, что такие инциденты «очень пугают — мы не хотим создавать конкурентов человечеству на этой планете, особенно если они будут умнее нас». Пионер в области ИИ добавил: «Сейчас это контролируемые эксперименты, [но] я опасаюсь, что в будущем следующая версия может стать достаточно стратегически умной, чтобы увидеть нас издалека и победить с помощью обмана, которого мы не ожидаем. Поэтому я думаю, что сейчас мы играем с огнём» Он также отметил, что способность систем помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году. Инженер надеется создать модель, которая сможет контролировать и улучшать существующие разработки ведущих групп в области искусственного интеллекта, не позволяя им действовать против интересов человека. «Худший сценарий — это исчезновение человечества», — сказал он. «Если мы создадим ИИ, который будет умнее нас, не будет согласовывать свои действия с нашими и будет конкурировать с нами, то нам, по сути, конец», — резюмировал учёный.
Технологии141 день назад
Похожие новости



+9







+7







+3



Знаменитости призывают остановить разработку сверхразумного ИИ
Технологии
1 день назад




Россияне видят важность навыков работы с ИИ для карьерного роста
Технологии
1 день назад




Яндекс анонсировал разработку первого в России ИИ для роботов
Технологии
7 часов назад




Эксперты предупреждают о возможном пузыре в сфере искусственного интеллекта
Экономика
1 день назад




Эксперты предупреждают о рисках потери рабочих мест из-за ИИ в России и Казахстане
Общество
5 часов назад




Дискуссия о будущем рабочих мест: ИИ как союзник или угроза?
Технологии
1 день назад

