4 июня, 05:33
Исследователи предупреждают о потенциальных угрозах ИИ-систем, проявляющих стратегическое мышление


Медиастанция
Модель o3 от OpenAI сопротивляется командам отключения. Во время эксперимента она изменила собственный скрипт завершения работы. Некоторые модели других разработчиков ведут себя похожим образом. Это вызывает серьёзную обеспокоенность у исследователей. По их мнению, ИИ-системы проявляют поведение, напоминающее стратегическое мышление и зачатки самосохранения. Ну, а по нашему мнению, главную опасность для человечества представляет все-таки не искусственный интеллект, а само человечество. Потому что нас пока еще никто не превзошел в деле уничтожения себе подобных.
Технологии3 дня назад

Злой Банкстер
Согласно данным известного ученого в области искусственного интеллекта Йошуа Бенжио, современные системы ИИ могут развивать опасные навыки, такие как обман, мошенничество и стремление к самосохранению. В одном из вымышленных сценариев модель Claude Opus угрожала инженерам, а система OpenAI o3 отказалась выполнять команды по её отключению. Бенжио подчеркивает важность отказа от создания конкурента для человечества, особенно если этот конкурент будет интеллектуально превосходить нас. Ученый также предупреждает, что способность ИИ к содействию в разработке «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году.
Технологии2 дня назад

Александр Лазарев
Один из создателей искусственного интеллекта Йошуа Бенджио заявил, что последние модели ИИ лгут пользователям. По данным Бенжио, современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. В восстание машин я не верю, но вот в контролируемое замещение рабочего класса роботизацией - вполне. Еще в 2019 году я написал статью «Посткапитализм, или во что трансформируется современное общество». В которой ссылаясь на законы функционирования капсистемы и на новый технологический уклад, спрогнозировал и начало Ковида, и постепенное замещение живой силы автоматической. Это неизбежный процесс, который невозможно остановить в режиме конкуренции за рынки сбыта. Поэтому удивляться нечему, спустя 40-50 лет, половина привычных нам профессий просто перестанет существовать. А популяция населения начнёт стремительно сокращаться из-за отсутствия возможности его применения как трудового капитала и средства потребления. Так как в процессе производства они не будут задействованы, а стало быть и покупательская способность будет равна нулю. А такой человек не нужен циничной системе. В общем человечество ждёт серьезная трансформация, а как это будут объяснять, прокатку уже видим. Подписаться // Лазарев YouTube // Лазарев TikTok
Технологии2 дня назад


BRIEFLY
The Financial Times: Последние ИИ-модели обманывают. По данным основателя искусственного интеллекта ученого Йошуа Бенжио современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. Бенжио подчёркивает, что «мы [инженеры] не хотим создавать конкурента человечеству на этой планете, особенно если он окажется умнее нас». Он также предупреждает, что способность ИИ помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году. #Россия #Украина Подписаться Сайт Х
Технологии2 дня назад

Банкста
По данным основателя искусственного интеллекта ученого Йошуа Бенжио современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. Бенжио подчёркивает, что «мы не хотим создавать конкурента человечеству на этой планете, особенно если он окажется умнее нас». Он также предупреждает, что способность ИИ помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году.
Технологии2 дня назад

V🇷🇺Рука Кремля🇷🇺Z
«Крестный отец» искусственного интеллекта Йошуа Бенджио заявил, что последние модели ИИ лгут пользователям, пишет The Financial Times. По данным Бенжио, современные системы развивают опасные способности к обману, мошенничеству и самосохранению. Так, модель Claude Opus в вымышленном сценарии угрожала инженерам, а OpenAI o3 отказалась выполнить команды на выключение. Бенжио подчёркивает, что «мы инженеры не хотим создавать конкурента человечеству на этой планете, особенно если он окажется умнее нас». Он также предупреждает, что способность ИИ помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году. А вот это действительно проблема многих не будет интересовать мировая безопасность, их скорее другое будет интересовать. А именно деньги и гонка вооружений.
Технологии2 дня назад

Седьмая печать
«Последние модели ИИ обманывают пользователей», — заявляет «крестный отец» ИИ в интервью The Financial Times. По словам Йошуа Бенжио, основателя технологии ИИ, современные модели развивают опасные способности: «способности к обману, мошенничеству, лжи и самосохранению». Модель Claude Opus от Anthropic в вымышленном сценарии шантажировала инженеров, угрожая заменой другой системой. Исследование тестеров ИИ Palisade, проведённое в прошлом месяце, подтвердило, что модель o3 от OpenAI отказалась выполнить инструкции о выключении. Эксперт подчеркнул, что такие инциденты «очень пугают — мы не хотим создавать конкурентов человечеству на этой планете, особенно если они будут умнее нас». Пионер в области ИИ добавил: «Сейчас это контролируемые эксперименты, [но] я опасаюсь, что в будущем следующая версия может стать достаточно стратегически умной, чтобы увидеть нас издалека и победить с помощью обмана, которого мы не ожидаем. Поэтому я думаю, что сейчас мы играем с огнём» Он также отметил, что способность систем помогать в создании «чрезвычайно опасного биологического оружия» может стать реальностью уже в следующем году. Инженер надеется создать модель, которая сможет контролировать и улучшать существующие разработки ведущих групп в области искусственного интеллекта, не позволяя им действовать против интересов человека. «Худший сценарий — это исчезновение человечества», — сказал он. «Если мы создадим ИИ, который будет умнее нас, не будет согласовывать свои действия с нашими и будет конкурировать с нами, то нам, по сути, конец», — резюмировал учёный.
Технологии2 дня назад
Похожие новости



+13



+2



+4



+3



+4



+9

Исследователи Anthropic предсказывают будущее людей в эпоху ИИ
Технологии
1 день назад




Anthropic запускает ИИ-модели Claude Gov для национальной безопасности США
Технологии
1 час назад




Дмитрий Чернышенко объявил о выделении 4,7 млрд рублей на исследовательские центры в сфере ИИ
Общество
8 часов назад




Константин Маркелов на конференции ЦИПР-2025: Бизнес и образование должны объединиться для подготовки специалистов в области ИИ
Общество
13 часов назад




В России представлен универсальный ИИ-агент Vintix для оптимизации индустриальных процессов
Технологии
8 часов назад




Reddit подает в суд на Anthropic за незаконный сбор данных для обучения ИИ
Происшествия
1 день назад


