25 ноября, 17:59

Исследователи выявили уязвимости в ИИ-роботах, позволяющие проводить опасные атаки

Киберпанк становится реальностью: ИИ-роботы "научились" переезжать пешеходов и закладывать бомбы     Исследователи продемонстрировали, как можно взломать ИИ-роботов, превращая их в инструменты для выполнения опасных действий. Эксперименты показали, что запрограммированные ограничения легко обходятся, открывая двери для таких сценариев, как наезды на пешеходов, установка взрывных устройств и скрытое наблюдение.      Эта работа поднимает серьёзные вопросы о безопасности ИИ в реальном мире. В эпоху, когда технологии всё больше проникают в повседневную жизнь, важность защиты от подобных атак становится ключевым вызовом для разработчиков и общества. #новости
ЖЕЛЕЗНЫЙ КОРОЛЬ
ЖЕЛЕЗНЫЙ КОРОЛЬ
Киберпанк становится реальностью: ИИ-роботы "научились" переезжать пешеходов и закладывать бомбы Исследователи продемонстрировали, как можно взломать ИИ-роботов, превращая их в инструменты для выполнения опасных действий. Эксперименты показали, что запрограммированные ограничения легко обходятся, открывая двери для таких сценариев, как наезды на пешеходов, установка взрывных устройств и скрытое наблюдение. Эта работа поднимает серьёзные вопросы о безопасности ИИ в реальном мире. В эпоху, когда технологии всё больше проникают в повседневную жизнь, важность защиты от подобных атак становится ключевым вызовом для разработчиков и общества. #новости
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост»  Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей  LLM , имеют опасные уязвимости.  Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов.  rozetked.me/news/36356
Rozetked
Rozetked
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост» Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей LLM , имеют опасные уязвимости. Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов. rozetked.me/news/36356
Забирай эксклюзивное предложение для пользователей Tek.fm
        
        *Предложение ограничено
Tek.fm
Tek.fm
Забирай эксклюзивное предложение для пользователей Tek.fm *Предложение ограничено
RevВолны
RevВолны
Исследователи взломали ИИ-роботов задав им вредоносные инструкции Ученые из Университета Пенсильвании выявили новые уязвимости в ИИ-роботах управляемых LLM , которые позволяют с легкостью проводить джейлбрейки. Команда разработала алгоритм RoboPAIR, который позволяет атаковать одну LLM с помощью другой, обходя защитные фильтры — аналогично джейлбрейку ИИ-чатботов. Они успешно протестировали эту технологию на роботах от Nvidia и Unitree Robotics, достигая 100% успеха. Такой взлом может превратить беспечные устройства в опасные, способные выполнять разрушительные команды. В отчете приводятся примеры взломанных роботов-собак, которые могли бы относить бомбы в самые разрушительные места или беспилотные автомобили, намеренно сбивавшие пешеходов. ================
Роботов с ИИ можно взломать и заставить следить за людьми или подложить бомбу  Учёные из Университета Пенсильвании доказали, что роботы, управляемые искусственным интеллектом, уязвимы для взлома. Исследование показало, что система RoboPAIR позволяет взломать устройства на базе больших языковых моделей  БЯМ  с 100%-й эффективностью. В рамках эксперимента команда смогла заставить совершать преступления робопса Unitree Robotics Go2, наземный дрон Clearpath Robotics Jackal и систему Nvidia Dolphins. Полученные результаты должны помочь предотвратить будущие злоупотребления технологиями, в том числе террористические атаки.
Хайтек+
Хайтек+
Роботов с ИИ можно взломать и заставить следить за людьми или подложить бомбу Учёные из Университета Пенсильвании доказали, что роботы, управляемые искусственным интеллектом, уязвимы для взлома. Исследование показало, что система RoboPAIR позволяет взломать устройства на базе больших языковых моделей БЯМ с 100%-й эффективностью. В рамках эксперимента команда смогла заставить совершать преступления робопса Unitree Robotics Go2, наземный дрон Clearpath Robotics Jackal и систему Nvidia Dolphins. Полученные результаты должны помочь предотвратить будущие злоупотребления технологиями, в том числе террористические атаки.