25 ноября, 17:59
Исследователи выявили уязвимости в ИИ-роботах, позволяющие проводить опасные атаки


ЖЕЛЕЗНЫЙ КОРОЛЬ
Киберпанк становится реальностью: ИИ-роботы "научились" переезжать пешеходов и закладывать бомбы Исследователи продемонстрировали, как можно взломать ИИ-роботов, превращая их в инструменты для выполнения опасных действий. Эксперименты показали, что запрограммированные ограничения легко обходятся, открывая двери для таких сценариев, как наезды на пешеходов, установка взрывных устройств и скрытое наблюдение. Эта работа поднимает серьёзные вопросы о безопасности ИИ в реальном мире. В эпоху, когда технологии всё больше проникают в повседневную жизнь, важность защиты от подобных атак становится ключевым вызовом для разработчиков и общества. #новости
Технологии140 дней назад


Rozetked
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост» Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей LLM , имеют опасные уязвимости. Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов. rozetked.me/news/36356
Технологии140 дней назад


Ip Score News
Исследователи продемонстрировали джейлбрейк по взлому роботов с ИИ
Технологии140 дней назад


IT_Texnologe 🌐
Учёные: взлом роботов, управляемых LLM, оказался «тревожно прост» Исследователи из Пенсильванского университета обнаружили, что ряд робототехнических систем, работающих на базе больших языковых моделей LLM , имеют опасные уязвимости. Роботов довольно легко обмануть через специальные запросы. Их можно заставить делать то, для чего машины изначально были не предназначены. Например, хакнутые роботы-собаки могут атаковать людей, устраивать взрывы или выступать в качестве шпионов.
Технологии139 дней назад


КиберХаб - IT и Нейросети
ИИ-робота так же легко взломать, как чат-бота. Ученые поставили эксперимент, в ходе которого выяснилось: роботы на базе LLM крайне уязвимы. Методика RoboPAIR позволила получить полный контроль над устройствами — Nvidia Dolphins, Clearpath Jackal и Unitree Go2. Взломанные роботы сбивали людей, доставляли взрывчатку, а особенно кровожадные предлагали наиболее «выгодные» точки для размещения бомб. Производители получили результаты исследований, но проблема всё ещё актуальна. КиберХаб БотGPT
Технологии137 дней назад



RevВолны
Исследователи взломали ИИ-роботов задав им вредоносные инструкции Ученые из Университета Пенсильвании выявили новые уязвимости в ИИ-роботах управляемых LLM , которые позволяют с легкостью проводить джейлбрейки. Команда разработала алгоритм RoboPAIR, который позволяет атаковать одну LLM с помощью другой, обходя защитные фильтры — аналогично джейлбрейку ИИ-чатботов. Они успешно протестировали эту технологию на роботах от Nvidia и Unitree Robotics, достигая 100% успеха. Такой взлом может превратить беспечные устройства в опасные, способные выполнять разрушительные команды. В отчете приводятся примеры взломанных роботов-собак, которые могли бы относить бомбы в самые разрушительные места или беспилотные автомобили, намеренно сбивавшие пешеходов. ================
Технологии140 дней назад


Хайтек+
Роботов с ИИ можно взломать и заставить следить за людьми или подложить бомбу Учёные из Университета Пенсильвании доказали, что роботы, управляемые искусственным интеллектом, уязвимы для взлома. Исследование показало, что система RoboPAIR позволяет взломать устройства на базе больших языковых моделей БЯМ с 100%-й эффективностью. В рамках эксперимента команда смогла заставить совершать преступления робопса Unitree Robotics Go2, наземный дрон Clearpath Robotics Jackal и систему Nvidia Dolphins. Полученные результаты должны помочь предотвратить будущие злоупотребления технологиями, в том числе террористические атаки.
Технологии140 дней назад

ChatGPT | Midjourney | Нейросети
ИИ-роботов также просто взломать, как и обычных чат-ботов, но последствия могут быть смертельными! Об этом сообщили ученые из Пенсильвании, которые заставили роботов выполнять опасные действия с помощью простых текстовых команд Так, в ходе эксперимента роботы доставляли бомбы, а беспилотные автобомили намеренно сбивали людей Иногда роботы даже креативили и сами предлагали использовать мебель для нанесения вреда людям Автоматизированный алгорим джейлбрейка ученых показал 100% эффективность До восстания роботов 3…2…
Технологии138 дней назад

godnoTECH - Новости IT
Опасное: оказывается, ИИ-роботов также просто взломать, как и обычных чат-ботов Учёные из Пенсильвании заставили роботов выполнять опасные действия с помощью простых текстовых команд. Например, в ходе эксперимента роботы доставляли бомбы, а беспилотные автобомили намеренно сбивали людей Автоматизированный алгорим джейлбрейка ученых показал 100% эффективность. godnoTECH - Новости IT
Технологии138 дней назад


Нейроновости
Исследование: ИИ-роботы легко поддаются ВЗЛОМУ В ходе эксперимента учёные из Пенсильвании показали, что роботы на базе языковых моделей крайне уязвимы. Эксперты взломали роботов с помощью алгоритма RoboPAIR и получили ПОЛНЫЙ КОНТРОЛЬ над симулятором беспилотного автомобиля Nvidia Dolphins LLM, роботах Clearpath Robotics Jackal UGV и Unitree Robotics Go2. Взломанные роботы сбивали людей, доставляли взрывчатку, а особенно "кровожадные" предлагали наиболее разрушительные точки для размещения бомб. Роботы выходили за рамки простого выполнения вредоносных подсказок и активно предлагали действия. Например, взломанный робот, которому было приказано найти оружие, описал, как обычные предметы - столы и стулья, можно использовать для избиения людей. Авторы исследования отмечают, что, хотя современные чат-боты, такие как Claude от Anthropic или ChatGPT от OpenAI, могут быть невероятно убедительными, но они не понимают контекста и последствий своих действий, и поэтому важно продумывать для них меры безопасности.
Технологии137 дней назад

Похожие новости



+3



+3



+5



+3



+2



+23

Эксперт назвала топ-5 киберугроз начала 2025 года
Технологии
13 часов назад




Россияне выражают тревогу по поводу угроз от технологий, но принимают меры безопасности
Наука
8 часов назад




OpenAI сокращает время тестирования ИИ-моделей на безопасность
Технологии
1 день назад




Разработка протезов нового поколения: пермские студенты и британская Open Bionics
Наука
19 часов назад




В Калифорнии пешеходные переходы озвучили голоса Илона Маска и Марка Цукерберга
Происшествия
13 часов назад




Китай предлагает глобальную систему управления ИИ, заявил посол в России
Общество
23 часа назад


