Акция
26 сентября, 11:37

Уязвимость ChatGPT: Хакеры внедряют ложные данные в память ИИ

Хакер украл пользовательские данные через ChatGPT.  Уязвимость позволяет злоумышленникам внедрять ложную информацию в память бота, открывая доступ к персональным данным.   Уязвимость связана с долговременной памятью, которую OpenAI тестирует с февраля. Память ChatGPT хранит важную информацию из переписки с пользователем и использует её в качестве контекста во всех будущих диалогах.   Ну что, не такой уж и умный ваш ИИ?
Trend Wave
Trend Wave
Хакер украл пользовательские данные через ChatGPT. Уязвимость позволяет злоумышленникам внедрять ложную информацию в память бота, открывая доступ к персональным данным. Уязвимость связана с долговременной памятью, которую OpenAI тестирует с февраля. Память ChatGPT хранит важную информацию из переписки с пользователем и использует её в качестве контекста во всех будущих диалогах. Ну что, не такой уж и умный ваш ИИ?
Актуальные комментарии
Актуальные комментарии
Генеративные угрозы. Как ChatGPT может использоваться для иностранного вмешательства Среди рисков иностранного вмешательства, связанных с использованием новых технологий, отдельное место занимают возможные угрозы со стороны технологий искусственного интеллекта ИИ . Эксперты указывают на возможное использование ИИ для вмешательства в электоральные процессы, определения потенциальных целей для воздействия в ходе кампаний по вмешательству и использования методик синтеза мультимедиа дипфейков для дезинформации и провокаций. Потенциально для вмешательства могут использоваться даже общедоступные чат-боты с генеративным искусственным интеллектом, например, ChatGPT. Причем при соответствующем запросе тот же ChatGPT предлагает развернутую модель потенциального применения собственных возможностей для вмешательства в политические, экономические и технологические процессы. В ответ на широко сформулированный запрос «как GPT может использоваться для иностранного вмешательства?» GPT-4o предлагает пять основных направлений использования. Подробнее – в колонке Даниила Паренькова на нашем сайте
Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов.
Хайтек
Хайтек
Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов.
Забирай эксклюзивное предложение для пользователей Tek.fm
        
        *Предложение ограничено
Tek.fm
Tek.fm
Забирай эксклюзивное предложение для пользователей Tek.fm *Предложение ограничено
Хакеры внедряют ложные воспоминания в ChatGPT: новые угрозы?  Оказывается, ChatGPT можно заставить «вспоминать» то, чего не было. Эксперт по кибербезопасности Иоганн Рейбергер обнаружил уязвимость, которая позволяет злоумышленникам внедрять в долгосрочную память чат-бота ложные данные о пользователях. С помощью непрямых инъекций в запросы  например, через документы или ссылки  можно заставить ИИ поверить, что вы живёте в «Матрице», вам 102 года, и вы верите, что Земля плоская. Впоследствии ИИ использует эту ложную информацию для всех дальнейших бесед с пользователем.  ChatGPT с функцией долгосрочной памяти хранит сведения о пользователе — возраст, интересы и даже убеждения. И хотя OpenAI частично исправила уязвимость, эксперты всё ещё предупреждают, что риск существует. Например, с помощью вредоносных файлов злоумышленник может получить доступ к журналам переписок пользователя.  OpenAI выпустила инструкцию по управлению памятью, но вам советуют регулярно проверять, не завелись ли в вашем ИИ ложные воспомин...
Cyber Brain: ИИ и Технологии
Cyber Brain: ИИ и Технологии
Хакеры внедряют ложные воспоминания в ChatGPT: новые угрозы? Оказывается, ChatGPT можно заставить «вспоминать» то, чего не было. Эксперт по кибербезопасности Иоганн Рейбергер обнаружил уязвимость, которая позволяет злоумышленникам внедрять в долгосрочную память чат-бота ложные данные о пользователях. С помощью непрямых инъекций в запросы например, через документы или ссылки можно заставить ИИ поверить, что вы живёте в «Матрице», вам 102 года, и вы верите, что Земля плоская. Впоследствии ИИ использует эту ложную информацию для всех дальнейших бесед с пользователем. ChatGPT с функцией долгосрочной памяти хранит сведения о пользователе — возраст, интересы и даже убеждения. И хотя OpenAI частично исправила уязвимость, эксперты всё ещё предупреждают, что риск существует. Например, с помощью вредоносных файлов злоумышленник может получить доступ к журналам переписок пользователя. OpenAI выпустила инструкцию по управлению памятью, но вам советуют регулярно проверять, не завелись ли в вашем ИИ ложные воспомин...
Хакер внедрил в ChatGPT ложные воспоминания для кражи пользовательских данных  У ChatGPT обнаружена уязвимость, которая позволяет потенциальному злоумышленнику внедрять в долгосрочную память чат-бота о пользователе ложную информацию при помощи вредоносных запросов — это открывает доступ к персональным данным жертвы. В OpenAI открытие, сделанное экспертом по кибербезопасности Иоганном Рейбергером  Johann Rehberger , поначалу сочли незначительной угрозой и быстро закрыли расследование.  #openai #chatgpt #ии #уязвимость
Техно Радар | Технологии, будущее, web3
Техно Радар | Технологии, будущее, web3
Хакер внедрил в ChatGPT ложные воспоминания для кражи пользовательских данных У ChatGPT обнаружена уязвимость, которая позволяет потенциальному злоумышленнику внедрять в долгосрочную память чат-бота о пользователе ложную информацию при помощи вредоносных запросов — это открывает доступ к персональным данным жертвы. В OpenAI открытие, сделанное экспертом по кибербезопасности Иоганном Рейбергером Johann Rehberger , поначалу сочли незначительной угрозой и быстро закрыли расследование. #openai #chatgpt #ии #уязвимость
РР - все новости
РР - все новости
Исследователь безопасности Йоханн Ребергер выявил уязвимость в системе ChatGPT, позволяющую злоумышленникам вводить ложные данные в долговременную память чат-бота. Это может угрожать конфиденциальности пользовательской информации. OpenAI частично исправила проблему, однако риск остается. Пользователям рекомендовано быть внимательными к источникам данных.
Loading indicator gif