31 мая, 07:06
OpenAI разоблачил тайные операции с использованием ИИ в России, Китае, Иране и Израиле


Мы и Жо / медиа и журналистика
Сотрудники OpenAI пишут, что сорвали работу нескольких «тайных операций по оказанию влияния». То есть групп часто проправительственных , которые применяли ИИ, чтобы манипулировать общественным мнением или влиять на политическую обстановку. По ссылке есть релиз и отчет на 30 страниц. Мне показался интересным список и названия, которые дали : — Bad Grammar, Россия. Работала с Telegram. Цели — Украина, Молдова, страны Балтии, США. ИИ помогал им отлаживать код для телеграм-бота и создавать короткие политические комментарии для телеграма. — Doppelganger, Россия. Генерировали комментарии для X и 9GAG на английском, французском, немецком, итальянском и польском. Переводили и редактировали статьи на английском и французском для своих сайтов. Ну и, конечно, писали новостные заголовки и превращали новости в фейсбучные посты. —Spamouflage, Китай. Исследовали активность в соцсетях с помощью ИИ, генерировали тексты на китайском, английском, японском и корейском, а потом постили все это на X, Medium и Blogspot. Ну и конечно отлаживали код для управления базами данных и сайтами. — International Union of Virtual Media opens in a new window IUVM , Иран. Генерировали и переводили лонгриды, заголовки, теги для статей, которые потом публиковались на их сайте. — Zeno Zeno, Израиль. Компания STOIC генерировали статьи и комментарии, которые затем распространялись по соцсетям. В OpenAI говорят, что больших удач никто из них не достиг.


Марзаганов вещает
OpenAI провел прикольное расследование и узнал, как государства используют ChatGPT для воздействия на общественное мнение и политические процессы. Россия, КНР, Иран и Израиль использовали ИИ на темы «российское вторжение в Украину», «конфликт в секторе Газа», «выборы в Индии», «политика в Европе и США». В России отвечали за пропаганду две компании — Doppelgänger и Bad Grammar. Первые писали в Твиттере и на 9GAG комментарии на английском, французском, немецком, итальянском и польском языках. Вторые — писали короткие политические комментарии на русском и английском языком в Телеге. OpenAI говорит, что увеличивать размер своей аудитории или охваты за счет инструментов компании не удалось. Я уверен в том, что это ложь и компания сама это осознает.

⚡️Лобушкин молнит
OpenAI обнаружила и пресекла информационные операции России и других стран, проводимые с целью воздействия на общественное мнение и политические процессы с помощью ее ИИ–технологий — пресс–релиз #AI #OpenAI #Russia


ИА Реалист
OpenAI сообщила, что Россия, Китай, Иран и Израиль используют инструменты искусственного интеллекта для создания и распространения дезинформации. Технологии ИИ становятся мощным оружием в информационной войне в нынешнем году, насыщенным выборами. Разработчик чат-бота ChatGPT из Сан-Франциско сообщил в отчете, что пять тайных операций влияния использовали его модели искусственного интеллекта для генерации текста и изображений в больших объемах, с меньшим количеством языковых ошибок, чем раньше, а также для создания комментариев или ответы на собственные сообщения. Политика OpenAI запрещает использование ее моделей для обмана или введения в заблуждение других.

Forbes Russia | The Globals
OpenAI говорит, что Россия, Китай, Израиль и Иран использовали их инструменты для распространения дезинформации. Разработавшая ChatGPT компания заявила, что за последние три месяца сорвала пять тайных операций, среди них сети, работавшие из России, Китая, Ирана и Израля. По данным OpenAI, злоумышленники использовали ИИ-сервисы компании, чтобы «менипулировать общественным мнением или формировать политическую картину», скрывая свою подлинную идентичность. В частности, в своем отчете OpenAI описывает российскую группу, которую в компании назвали Bad Grammar, которая с помощью ИИ-моделей стартапа создала пайплайн спам-сообщений на английском и русском языках от десятков разных аккаунтов для мессенджера Telegram. Один из таких аккаунтов публиковал аргументы против поддержки Украины со стороны США. Часть такого сгенерированного искусственным интеллектом контента OpenAI обнаружила по типичным для их чат-бота фразам, типа: «Как языковая модель, я здесь для того, чтобы вам помочь».


The Bell
OpenAI раскрыл информационные операции, проводимые Россией и рядом других стран с использованием его ИИ-инструментов НАСТОЯЩИЙ МАТЕРИАЛ ИНФОРМАЦИЯ ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ THE BELL ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА THE BELL. 18+ За последние три месяца OpenAI — создатель ChatGPT — разоблачил пять тайных операций по воздействию на общественное мнение и политические процессы. Их проводили структуры из России, КНР, Ирана и Израиля, которые использовали технологии искусственного интеллекта для создания большого количества изображений и текстов, говорится в сообщении компании. Среди затрагиваемых тем — российское вторжение в Украину, конфликт в секторе Газа, выборы в Индии, политика в Европе и США. В России кампанию курировали две пропагандистские сети. Одна из них была известна ранее — это «Doppelgänger» «Злой двойник» , участники которой использовали языковые модели от OpenAI для написания комментариев на английском, французском, немецком, итальянском и польском языках и их дальнейшей публикации в соцсети X и на платформе 9GAG. Еще одна операция, которую ведет Россия, была обнаружена впервые, говорится в отчете. Она получила название «Bad Grammar» «Плохая грамматика» : ее участники пишут в основном короткие политические комментарии на русском и английском языках в Telegram, а контент нацелен на аудиторию из Украины, Молдовы, стран Балтии и США. Среди прочего, ИИ использовался для поиска и исправления ошибок в программных кодах, а также для изучения активности пользователей в соцсетях. По оценкам OpenAI, увеличить размер своей аудитории или охваты за счет инструментов компании группам не удалось.

Кролик с Неглинной
Компания OpenAI заявила, что за последние три месяца пресекла пять тайных операций по оказанию влияния, включая сети в России, Китае, Иране и Израиле, которые получали доступ к продуктам искусственного интеллекта производителя ChatGPT, пытаясь манипулировать общественным мнением или формировать политические результаты, скрывая свою истинную личность, сообщает Bloomberg.

The Insider
OpenAI заявили о «срыве пяти тайных операций влияния», за которыми стоит Россия и ряд других стран Операции «Двойник» и «Плохая грамматика» На сайте компании OpenAI опубликован отчет о «срыве» российских операций Doppelgänger и Bad Grammar. Срывом в компании назвали закрытие аккаунтов, которые пользовались сервисами компании для генерации якобы пользовательских комментариев и статей на разных языках. Затем этот контент распространялся ботами по соцсетям. Это связанная с ФСБ сеть Doppelgänger «Двойник» и новая операция Bad Grammar, о которой ранее не сообщалось. Общедоступные сервисы в руках злоумышленников Услугами OpenAI также пользовались Китай, Иран и частная фирма в Израиле. Модели OpenAI использовались для изучения активности в социальных сетях, создания текстов на разных языках, создания статей и комментариев, которые затем размещались на различных платформах, в частности в Instagram, Facebook, X. Задонатить Написать редакции


Журнал «Компания»
OpenAI обнаружила пять случаев использования ChatGPT для манипуляции общественным мнением OpenAI отчиталась о том, что «пресекла пять тайных операций по оказанию влияния», целью которых было использование моделей искусственного интеллекта для обмана пользователей в интернете. Злоумышленники в течение последних трех месяцев. использовали ИИ для создания коротких комментариев, более длинных статей на разных языках, придумывали имена и биографии для аккаунтов в социальных сетях. Конкретные кейсы не описываются, указано, что угрозы исходили в том числе из России и Китая и были связаны с конфликтами на Украине и в Газе, выборами в Индии и США, а также с европейской политикой.

ПроСМИсь
Создатели ChatGPT отчитались о своем «героическом» поступке — они якобы смогли приостановить пропагандистские кампании Китая, России, Израиля и Ирана. Страны, говорят разработчики, пытались использовать их нейросеть для создания пропаганды и ее перевода на разные языки / п р у ф Если верить данным компании, российские «злоумышленники» пытались создать с помощью нейросети контент, критикующий США, Украину и несколько стран Балтии. Китайцы готовили пропаганду на японском и корейском языках что именно там было, не уточняется . Иранские пропагандисты пытались создать статьи с нападками на США и Израиль, а евреи хотели с помощью нейросети сгенерировать посты, очерняющие антиизраильские протесты американских студентов. Звучит это все, конечно, как анекдот. Анекдотом и является. Сели как-то русский, китаей и еврей пропаганду через чат джи-пи-ти создавать… Кажется, этот смешной отчет OpenAI нужен лишь для того, чтобы компания могла на западном рынке показаться «точно своей». В итоге сам отчет выглядит как топорная пропаганда.

Похожие новости



+9










+6



+8



+4

OpenAI рассматривает иск против Apple из-за неудачного партнерства
Технологии
1 день назад


+9
Сотрудники крупных компаний используют ИИ для накрутки внутренних метрик
Технологии
1 день назад



Исследование показывает растущее применение ИИ в России среди специалистов и ученых
Общество
20 часов назад


Россияне сталкиваются с ростом поддельных мессенджеров и киберугроз
Происшествия
1 день назад


+6
Россияне обсуждают замену чиновников на ИИ, результаты опроса SuperJob
Политика
1 день назад


+8
OpenAI интегрировала Codex в мобильное приложение ChatGPT
Технологии
1 день назад


+4