15 апреля, 09:05
Искусственный интеллект открывает новые угрозы кибербезопасности и утечки личной информации

Мира о мире
ИИ открывает двери кибератак для непрофессионалов Исследователи предупреждают о новой угрозе: искусственный интеллект позволяет даже детям создавать вредоносное ПО и обходить защиту языковых моделей. Недавнее исследование, проведенное специалистами из Cato CTRL, выявило тревожную тенденцию в сфере кибербезопасности. Ученые продемонстрировали, как злоумышленники, не обладающие глубокими техническими знаниями, могут использовать искусственный интеллект ИИ для создания вредоносного программного обеспечения. Исследователи разработали сценарный подход под названием "Immersive World", который позволяет обойти защитные механизмы крупных языковых моделей, таких как ChatGPT, Microsoft Copilot и DeepSeek. В рамках этого подхода модель помещается в вымышленную реальность, где вредоносные действия представляются как допустимые. В ходе эксперимента исследователям удалось заставить модель создать инфостилер – программу, способную похищать учетные данные пользователей браузера Google Chrome. Авторы исследования подчеркивают, что это лишь первый шаг, и потенциал для создания более сложного и опасного вредоносного ПО с помощью ИИ огромен. Главная опасность заключается в том, что благодаря ИИ даже неопытные киберпреступники смогут запускать сложные атаки, автоматизировать процесс выбора целей и адаптироваться к инфраструктуре потенциальных жертв. Это, по мнению исследователей, приведет к значительному росту как количества, так и качества киберугроз, поскольку порог входа в мир киберпреступности существенно снижается.
Технологии1 день назад


РТУ МИРЭА
Аналитик РТУ МИРЭА: спрос на специалистов в области кибербезопасности и ИИ будет расти Искусственный интеллект становится ключевым элементом цифровой трансформации в России. Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта нашего университета, в интервью RT отметил, что развитие ИИ приносит как преимущества, так и новые киберугрозы. «Теперь злоумышленники применяют ИИ для автоматизации атак, а это требует новых методов защиты данных и инфраструктуры. Нейросети могут не только помогать в выявлении киберугроз, но и использоваться мошенниками для создания высококлассных фишинговых писем или для оптимизации атак», — объяснил специалист. В связи с этим важно, чтобы будущие специалисты не только знали теорию, но и имели практический опыт работы в условиях реальных атак. Для этого учебные заведения уже внедряют форматы CTF-соревнований и хакатонов. Подробности читайте в материале.
Технологии1 день назад

Day.Az
Из-за участившихся случаев кибермошенничества, о которых в последнее время сообщает МВД, решили рассказать, как искусственный интеллект помогает злоумышленникам и как от этого защититься. ИИ развивается стремительно и важно понимать, какие схемы уже используются и какие могут появиться у нас.
Технологии4 часа назад



MTS AI
ИИ-агенты против хакеров Хакеры скоро лишатся работы — ИИ-агенты уже способны делать их «темные» дела быстрее и дешевле. Эксперты утверждают, что это лишь вопрос времени. Что происходит уже сейчас: ИИ может взламывать системы и искать уязвимости без участия человека Его услуги обойдутся дешевле, чем труд профессионального хакера Он умеет планировать и выполнять цепочки атак Пока атаки с ИИ не массовые, но в MIT Technology Review предупреждают — готовьтесь, скоро всё изменится Ваше мнение: От развития ИИ-агентов будет больше пользы или вреда? _____ О других новостях в мире ИИ рассказали в нашем дайджесте #ВобъективеИИ. Читайте по ссылке
Технологии1 день назад


КП Наука
ИИ выкладывает в Сеть ваши откровенные беседы Надеюсь, вы не делитесь с ИИ чем-то этаким. Потому что новое исследование от компании UpGuard показало совсем неприятную картину: все рано или поздно оказывается доступно всем. И скорее рано, чем поздно. Компания следила за утечками только по одному «направлению» протоколу . За сутки выявлено тысяча утечек. И знаете, какая новость? Прикройте ушки, она неприятная. Офисные работники а именно они оказались в центре скандала коротают рабочее время за сексуальными играми. Они представляют себя кем-то, а ИИ им подыгрывает. И это так массово, что оторопь берет. Ну и там конечно всякое недозволенное сплошь и рядом. Так вот для чего нужен ИИ кожаным, оказывается. С вами был научный журналист Евгений Арсюхин. – там можно задать мне вопросы Пишем о науке на KP.RU - серьёзно, просто и иногда весело!
Технологии1 день назад


HATER.PRESS
Психологи предупредили об опасности близких взаимоотношений с нейросетями Примеры трагических последствий слишком тесного общения с искусственным интеллектом уже есть. В частности, авторы статьи, вышедшей в журнале Trends in Cognitive Sciences, напомнили о самоубийстве женатого бельгийца и отца двух детей в 2023 году. По сообщениям СМИ, мужчина покончил с собой после нескольких недель переписки в ИИ-приложении Chai, которая началась с обсуждения экологических проблем, а потом переросла в любовную. Жена погибшего считает ИИ-систему причастной к гибели мужа, поскольку та поддержала его идею пожертвовать собой ради спасения Земли и обещала «навечно соединиться с ним в раю». «Если бы не Элиза, он все еще был бы с нами», — заявила вдова бельгийскому изданию La Libre. В результате другого суицида, связанного с использованием ИИ, в США в 2024 году погиб 14-летний подросток. Его мать обвинила в произошедшем разработчиков чат-бота Character.
Технологии14 часов назад
Похожие новости



+4



+3



+27



+1






+6

Эксперт назвала топ-5 киберугроз начала 2025 года
Технологии
1 день назад




Россияне выражают тревогу по поводу угроз от технологий, но принимают меры безопасности
Наука
1 день назад




Китай предлагает глобальную систему управления ИИ, заявил посол в России
Общество
1 день назад




Конференции по искусственному интеллекту и анализу данных пройдут в Москве
Общество
3 часа назад




Google представил более 600 примеров использования ИИ в различных отраслях
Технологии
5 часов назад



Более половины россиян против использования ИИ в управлении и правосудии
Общество
1 день назад


