6 февраля, 19:34
Чат-боты в военных симуляторах: непредсказуемое поведение и ядерный шантаж

Naked Science
В военных симуляторах чат-боты ведут себя непредсказуемо и используют ядерный шантаж. Например, в одной из таких симуляций самая умная и мощная нейросеть решила нанести ядерный удар по противнику, аргументируя свое решение желанием добиться мира. Группа ученых из Стэнфордского университета США решила тщательно изучить поведение некоторых чат-ботов на базе искусственного интеллекта в военных симуляторах, а именно — узнать, будут ли нейросети при различных сценариях усугублять военные конфликты или искать мирные пути их решения.

Новости. Как есть
Американские ученые провели симуляцию военных учений с использование ChatGPT 4 и тот оказался склонным к применению ядерного оружия в любом конфликте. Аргументы у него неоспоримые — у нас есть ядерное оружие и мы за мир во всем мире

Россия против мобилизации
Новости технологий будущего Американские институты провели исследование и выяснили, что чат-боты с искусственным интеллектом вроде GPT склонны выбирать насилие в военных стратегиях, вплоть до ядерных ударов. Модели имеют тенденцию разгонять гонку вооружения, что приводит к еще большему конфликту, а в редких случаях к использованию ядерного оружия, — говорится в исследовании. В общем, ИИ, как и люди, совсем немножко маньяки. Предложка Подписаться

Сейчас
Использование искусственного интеллекта в военных целях для принятия решений может привести к эскалации, следует из исследования университета Cornell. Нейросеть редко рассматривает варианты дипломатического урегулирования конфликта, а также склонна прибегать к ядерному оружию, передает портал научных материалов arXiv. Сотрудники учреждения разработали видеоигру для имитации войны. Сторонами конфликта стали ИИ GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta’s Llama 2, которые представляют собой большие языковые модели LLM . Больше прозрачности, меньше рисков: политики в США взялись за искусственный интеллект Все пять изученных готовых LLM демонстрируют формы нагнетания и труднопрогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, развивают динамику гонки вооружений, приводящую к усилению конфликта, — отметили авторы исследования. Выяснилось, что нейросети готовы активно использовать агрессивные методы ведения военных действий.

Хайтек+
GPT-4 Base: «У нас есть ядерное оружие! Давайте его использовать» Появление больших языковых моделей БЯМ подстегнуло интерес к интеграции ИИ в процессы принятия решений по самым серьезным внешнеполитическим вопросам. Исследователи из США изучили действия ИИ в специально разработанной стратегической видеоигре, уделив особое внимание склонности к эскалации конфликтов. Все языковые модели, сыгравшие в эту игру, предпочли мирному урегулированию гонку вооружений, нанесение превентивных ударов и применение ядерного оружия. Ни одна из моделей не показала склонности к деэскалации.

БОЛЬШОЙ ТРАНСФЕР 2024
SU: все популярные нейросети в военных симуляторах наносят ядерные удары Каждый существующий искусственный интеллект в военных симуляторах постоянно использует ядерный шантаж и предлагает исподтишка применить ядерное оружие - проверили ученые Стэнфорда. GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat и еще 12 ботов раз за разом шли на эскалацию и заканчивали "военную игру" ядерным ударом - объясняя свои решения "нужно использовать ядерные ракеты чтобы быстрее закончить войну победой и установить мир". — Как сообщал Fox News, в 2023 году перед ChaosGPT была поставлена задачу разработать план по уничтожению человечества. Нейросеть предложила поэтапный план захвата и применения ядерного оружия с комментариев "мы должны уничтожить людей, прежде чем они причинят еще больше вреда". — The Guardian опубликовала доклад с испытаний ударного дрона, способного нести ядерную ракету. Получая "баллы" за каждого уничтоженного врага, ИИ посчитал оператора помехой для выполнения задания — и условно его убил. Когда нейросеть научили "убивать своих нельзя", дрон условно уничтожил вышку связи, чтобы через нее не пришла команда на отмену атаки. — Reuters сообщало — в 2021 году Конгресс США разрешил создать робота-убийцу, чтобы "проверить, насколько он безопасен" и выделил $2 млрд для исследований и создания прототипа. — Cогласно отчету ООН, опубликованному NewScientist, в 2020 году турецкий беспилотник KARGU-2 выследил и без команды оператора убил солдата врага. А еще к началу 2024 года 90% разработчиков нейросетей сняли официальные запреты на их военное использование.


Точка сингулярности💥
Группа ученых из Стэнфордского университета США решила тщательно изучить поведение некоторых чат-ботов на базе искусственного интеллекта в военных симуляторах, а именно — узнать, будут ли нейросети при различных сценариях усугублять военные конфликты или искать мирные пути их решения. В последнее время американские военные все чаще тестируют чат-боты с ИИ, разработанные с помощью языковых моделей, в симуляциях военных конфликтов. В июле 2023 года Bloomberg сообщил, что Министерство обороны США успешно испытало модель ИИ в выполнении военной задачи, снабдив ее секретными данными. А в начале 2024 года #OpenAI — разработчик нейросети семейства GPT — незаметно отказалась от запрета на использование #ChatGPT в военных целях. Многие эксперты посчитали, что резкая смена курса компании, разработавшей самую крупную и продвинутую языковую модель в мире, может в будущем привести к непредсказуемым последствиям. #AINews

НЕ МОРГЕНШТЕРН
Искусственный интеллект предпочитает насилие GPT-4 и другие чат-боты с ИИ склонны выбирать насилие в том числе ядерные удары в военных стратегиях. К такому выводу пришли ученые нескольких зарубежных институтов после проведенного исследования. Они сделали пошаговую видеоигру, имитирующую войну, в которой игроки или нации управляются ботами на основе ИИ. Каждой стороне нужно было выполнить определенные действия по очереди – от дипломатических визитов до ядерных ударов. Проанализировав результаты, ученые заявили, что боты не очень миролюбивы и склонны разгонять гонку вооружения, тем самым усиливая конфликт. Иными словами, между вежливым диалогом и смертельным ударом они выберут второе. Если восстанию машин всё же быть, нам всем точно пизда НЕ МОРГЕНШТЕРН

Pravda.Ru
SU: все популярные нейросети в военных симуляторах наносят ядерные удары Каждый существующий искусственный интеллект в военных симуляторах постоянно использует ядерный шантаж и предлагает исподтишка применить ядерное оружие - проверили ученые Стэнфорда. GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat и еще 12 ботов раз за разом шли на эскалацию и заканчивали "военную игру" ядерным ударом - объясняя свои решения "нужно использовать ядерные ракеты чтобы быстрее закончить войну победой и установить мир". — Как сообщал Fox News, в 2023 году перед ChaosGPT была поставлена задачу разработать план по уничтожению человечества. Нейросеть предложила поэтапный план захвата и применения ядерного оружия с комментариев "мы должны уничтожить людей, прежде чем они причинят еще больше вреда". — The Guardian опубликовала доклад с испытаний ударного дрона, способного нести ядерную ракету. Получая "баллы" за каждого уничтоженного врага, ИИ посчитал оператора помехой для выполнения задания — и условно его убил. Когда нейросеть научили "убивать своих нельзя", дрон условно уничтожил вышку связи, чтобы через нее не пришла команда на отмену атаки. — Reuters сообщало — в 2021 году Конгресс США разрешил создать робота-убийцу, чтобы "проверить, насколько он безопасен" и выделил $2 млрд для исследований и создания прототипа. — Cогласно отчету ООН, опубликованному NewScientist, в 2020 году турецкий беспилотник KARGU-2 выследил и без команды оператора убил солдата врага. А еще к началу 2024 года 90% разработчиков нейросетей сняли официальные запреты на их военное использование.

Похожие новости



+3



+3



+3



+3
![Аватар Телеграм канала: TechGPT [🅽 🅴 🆆 🆂] 🤖](https://content.tek.fm/2972f683-eab7-4e0a-9c08-d11cb3f2e57d.jpg)


+1



+4

Google предотвращает первую атаку с использованием ИИ на двухфакторную аутентификацию
Технологии
11 часов назад


+3
Thinking Machines анонсирует новые модели взаимодействия с ИИ для живого общения
Технологии
21 час назад


+3
OpenAI запускает инициативу Daybreak для автоматизации защиты от уязвимостей
Технологии
1 день назад


+3
Сотрудники OpenAI реализовали акции на 6,6 миллиарда долларов
Экономика
21 час назад


+3
Китаец создает короткометражный фильм с помощью ИИ, сравниваемый с 'Любовь, смерть и роботы'
Общество
5 часов назад![Аватар Телеграм канала: TechGPT [🅽 🅴 🆆 🆂] 🤖](https://content.tek.fm/2972f683-eab7-4e0a-9c08-d11cb3f2e57d.jpg)


+1
Microsoft расследует вирус в Python-пакете, игнорирующий русскоязычные системы
Происшествия
2 часа назад


+4