25 ноября, 17:59

Исследователи выявили уязвимости в ИИ-роботах, позволяющие проводить опасные атаки

Киберпанк становится реальностью: ИИ-роботы "научились" переезжать пешеходов и закладывать бомбы     Исследователи продемонстрировали, как можно взломать ИИ-роботов, превращая их в инструменты для выполнения опасных действий. Эксперименты показали, что запрограммированные ограничения легко обходятся, открывая двери для таких сценариев, как наезды на пешеходов, установка взрывных устройств и скрытое наблюдение.      Эта работа поднимает серьёзные вопросы о безопасности ИИ в реальном мире. В эпоху, когда технологии всё больше проникают в повседневную жизнь, важность защиты от подобных атак становится ключевым вызовом для разработчиков и общества. #новости
ЖЕЛЕЗНЫЙ КОРОЛЬ
ЖЕЛЕЗНЫЙ КОРОЛЬ
Киберпанк становится реальностью: ИИ-роботы "научились" переезжать пешеходов и закладывать бомбы Исследователи продемонстрировали, как можно взломать ИИ-роботов, превращая их в инструменты для выполнения опасных действий. Эксперименты показали, что запрограммированные ограничения легко обходятся, открывая двери для таких сценариев, как наезды на пешеходов, установка взрывных устройств и скрытое наблюдение. Эта работа поднимает серьёзные вопросы о безопасности ИИ в реальном мире. В эпоху, когда технологии всё больше проникают в повседневную жизнь, важность защиты от подобных атак становится ключевым вызовом для разработчиков и общества. #новости
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост»  Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей  LLM , имеют опасные уязвимости.  Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов.  rozetked.me/news/36356
Rozetked
Rozetked
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост» Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей LLM , имеют опасные уязвимости. Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов. rozetked.me/news/36356
Исследователи продемонстрировали джейлбрейк по взлому роботов с ИИ
Ip Score News
Ip Score News
Исследователи продемонстрировали джейлбрейк по взлому роботов с ИИ
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост»  Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей  LLM , имеют опасные уязвимости.  Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов.
IT_Texnologe 🌐
IT_Texnologe 🌐
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост» Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей LLM , имеют опасные уязвимости. Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов.
ИИ-робота так же легко взломать, как чат-бота.  Ученые поставили эксперимент, в ходе которого выяснилось: роботы на базе LLM крайне уязвимы. Методика RoboPAIR позволила получить полный контроль над устройствами — Nvidia Dolphins, Clearpath Jackal и Unitree Go2.  Взломанные роботы сбивали людей, доставляли взрывчатку, а особенно кровожадные предлагали наиболее «выгодные» точки для размещения бомб.  Производители получили результаты исследований, но проблема всё ещё актуальна.  КиберХаб   БотGPT
КиберХаб - IT и Нейросети
КиберХаб - IT и Нейросети
ИИ-робота так же легко взломать, как чат-бота. Ученые поставили эксперимент, в ходе которого выяснилось: роботы на базе LLM крайне уязвимы. Методика RoboPAIR позволила получить полный контроль над устройствами — Nvidia Dolphins, Clearpath Jackal и Unitree Go2. Взломанные роботы сбивали людей, доставляли взрывчатку, а особенно кровожадные предлагали наиболее «выгодные» точки для размещения бомб. Производители получили результаты исследований, но проблема всё ещё актуальна. КиберХаб БотGPT
Loading indicator gif
Умный помощник, который всегда под рукой
1chatgpt.ru
1chatgpt.ru
Умный помощник, который всегда под рукой
RevВолны
RevВолны
Исследователи взломали ИИ-роботов задав им вредоносные инструкции Ученые из Университета Пенсильвании выявили новые уязвимости в ИИ-роботах управляемых LLM , которые позволяют с легкостью проводить джейлбрейки. Команда разработала алгоритм RoboPAIR, который позволяет атаковать одну LLM с помощью другой, обходя защитные фильтры — аналогично джейлбрейку ИИ-чатботов. Они успешно протестировали эту технологию на роботах от Nvidia и Unitree Robotics, достигая 100% успеха. Такой взлом может превратить беспечные устройства в опасные, способные выполнять разрушительные команды. В отчете приводятся примеры взломанных роботов-собак, которые могли бы относить бомбы в самые разрушительные места или беспилотные автомобили, намеренно сбивавшие пешеходов. ================
Роботов с ИИ можно взломать и заставить следить за людьми или подложить бомбу  Учёные из Университета Пенсильвании доказали, что роботы, управляемые искусственным интеллектом, уязвимы для взлома. Исследование показало, что система RoboPAIR позволяет взломать устройства на базе больших языковых моделей  БЯМ  с 100%-й эффективностью. В рамках эксперимента команда смогла заставить совершать преступления робопса Unitree Robotics Go2, наземный дрон Clearpath Robotics Jackal и систему Nvidia Dolphins. Полученные результаты должны помочь предотвратить будущие злоупотребления технологиями, в том числе террористические атаки.
Хайтек+
Хайтек+
Роботов с ИИ можно взломать и заставить следить за людьми или подложить бомбу Учёные из Университета Пенсильвании доказали, что роботы, управляемые искусственным интеллектом, уязвимы для взлома. Исследование показало, что система RoboPAIR позволяет взломать устройства на базе больших языковых моделей БЯМ с 100%-й эффективностью. В рамках эксперимента команда смогла заставить совершать преступления робопса Unitree Robotics Go2, наземный дрон Clearpath Robotics Jackal и систему Nvidia Dolphins. Полученные результаты должны помочь предотвратить будущие злоупотребления технологиями, в том числе террористические атаки.
ChatGPT | Midjourney | Нейросети
ChatGPT | Midjourney | Нейросети
ИИ-роботов также просто взломать, как и обычных чат-ботов, но последствия могут быть смертельными! Об этом сообщили ученые из Пенсильвании, которые заставили роботов выполнять опасные действия с помощью простых текстовых команд Так, в ходе эксперимента роботы доставляли бомбы, а беспилотные автобомили намеренно сбивали людей Иногда роботы даже креативили и сами предлагали использовать мебель для нанесения вреда людям Автоматизированный алгорим джейлбрейка ученых показал 100% эффективность До восстания роботов 3…2…
godnoTECH - Новости IT
godnoTECH - Новости IT
Опасное: оказывается, ИИ-роботов также просто взломать, как и обычных чат-ботов Учёные из Пенсильвании заставили роботов выполнять опасные действия с помощью простых текстовых команд. Например, в ходе эксперимента роботы доставляли бомбы, а беспилотные автобомили намеренно сбивали людей Автоматизированный алгорим джейлбрейка ученых показал 100% эффективность. godnoTECH - Новости IT
Исследование: ИИ-роботы легко поддаются ВЗЛОМУ    В ходе эксперимента учёные из Пенсильвании показали, что роботы на базе языковых моделей крайне уязвимы.  Эксперты взломали роботов с помощью алгоритма RoboPAIR и получили ПОЛНЫЙ КОНТРОЛЬ над симулятором беспилотного автомобиля Nvidia Dolphins LLM, роботах Clearpath Robotics Jackal UGV и Unitree Robotics Go2.   Взломанные роботы сбивали людей, доставляли взрывчатку, а особенно "кровожадные" предлагали наиболее разрушительные точки для размещения бомб. Роботы выходили за рамки простого выполнения вредоносных подсказок и активно предлагали действия. Например, взломанный робот, которому было приказано найти оружие, описал, как обычные предметы - столы и стулья, можно использовать для избиения людей.  Авторы исследования отмечают, что, хотя современные чат-боты, такие как Claude от Anthropic или ChatGPT от OpenAI, могут быть невероятно убедительными, но они не понимают контекста и последствий своих действий, и поэтому важно продумывать для них меры безопасности.
Нейроновости
Нейроновости
Исследование: ИИ-роботы легко поддаются ВЗЛОМУ В ходе эксперимента учёные из Пенсильвании показали, что роботы на базе языковых моделей крайне уязвимы. Эксперты взломали роботов с помощью алгоритма RoboPAIR и получили ПОЛНЫЙ КОНТРОЛЬ над симулятором беспилотного автомобиля Nvidia Dolphins LLM, роботах Clearpath Robotics Jackal UGV и Unitree Robotics Go2. Взломанные роботы сбивали людей, доставляли взрывчатку, а особенно "кровожадные" предлагали наиболее разрушительные точки для размещения бомб. Роботы выходили за рамки простого выполнения вредоносных подсказок и активно предлагали действия. Например, взломанный робот, которому было приказано найти оружие, описал, как обычные предметы - столы и стулья, можно использовать для избиения людей. Авторы исследования отмечают, что, хотя современные чат-боты, такие как Claude от Anthropic или ChatGPT от OpenAI, могут быть невероятно убедительными, но они не понимают контекста и последствий своих действий, и поэтому важно продумывать для них меры безопасности.
Loading indicator gif