17 февраля, 13:54

Мошенники используют ИИ и дипфейки для обмана работодателей в сфере удаленной работы

Банкста
Банкста
Мошенники начали использовать искусственный интеллект и дипфейки для трудоустройства на удаленную работу, выдавая себя за IT-специалистов. Они успешно проходят предварительные этапы собеседований. Подозрения могут появиться на видеособеседовании, поскольку изображение кандидата выглядит неестественно: движения лица и губ запаздывают, а само лицо кажется наложенным на тело. При этом ответы звучат уверенно, отмечают рекрутеры. В случае если фальшивые кандидаты сумеют пройти все этапы собеседований, они получат доступ к корпоративным данным и смогут нанести организациям огромный ущерб. Злоумышленников привлекают организации, где хранятся большие объемы персональных данных, финансовой информации, коммерческой тайны или интеллектуальной собственности.
Кролик с Неглинной
Кролик с Неглинной
Мошенники стали использовать дипфейки и искусственный интеллект на собеседованиях, чтобы получить доступ к корпоративным данным компаний, пишут "Известия".
Банковская Правда
Банковская Правда
Мошенники используют дипфейки на собеседованиях для доступа к корпоративным данным — в польской компании Vidoc Security Lab VSL зафиксировали случаи, когда кандидаты с реалистичными резюме и правильными ответами на тесты оказывались поддельными: их движения выглядели неестественно, а лица казались искусственно наложенными на тела. Эксперты считают, что такие методы позволяют злоумышленникам получать учётные записи и важную информацию, что упрощает дальнейшие атаки на корпоративную инфраструктуру.
БанкБлог
БанкБлог
Мошенники могут использовать искусственный интеллект и дипфейки для трудоустройства в компании под видом настоящих сотрудников — об этом предупредили эксперты. Уже дважды выявляли фальшивых кандидатов, которые при этом успешно прошли предварительные этапы собеседований. Один из кандидатов привлек внимание из-за несоответствия акцента и указанной им страны происхождения. Подозрения усилились при переходе на видеособеседование, когда выяснилось, что изображение кандидата выглядит неестественно: движения лица и губ запаздывают, а само лицо кажется наложенным на тело. Несмотря на это, его ответы звучали уверенно. В случае если фальшивые кандидаты сумеют пройти все этапы собеседований, они получат доступ к корпоративным данным и смогут нанести организациям огромный ущерб.
Мошенники могут использовать дипфейки для трудоустройства в компании под видом настоящих сотрудников   В польской компании Vidoc Security Lab  VSL  дважды выявляли фальшивых кандидатов, которые при этом успешно прошли предварительные этапы собеседований.  Один из кандидатов привлек внимание из-за несоответствия акцента и указанной им страны происхождения. Подозрения усилились при переходе на видеособеседование, когда выяснилось, что изображение кандидата выглядит неестественно.  Трудоустройство на удаленную работу под личностью другого человека, созданной при помощи технологии дипфейка, потенциально дает преступнику возможность получить учетные записи и другую значимую информацию, которая может значительно облегчить задачу проникновения в инфраструктуру компании для развития дальнейшей атаки, — отметили в компании F.A.C.C.T.   По словам представителя «Лаборатории Касперского», первые из подобных инцидентов фиксировались еще в 2022 году, когда на фоне пандемии COVID-19 во всем мире стала набирать популярность удаленная работа.  По словам аналитика «Газинформсервис», российские компании, особенно работающие с чувствительной информацией, должны учитывать этот потенциальный вектор атаки и принимать превентивные меры, совершенствуя процедуры проверки кандидатов и внедряя системы защиты, способные распознавать дипфейки.   Как защититься от дипфейков на собеседованиях?    В первую очередь следует выстраивать процессы найма в компаниях с учетом потенциальных угроз и осведомлять сотрудников о новых схемах атак злоумышленников.    Важно запрашивать дополнительные рекомендации и использовать открытые источники информации, для того чтобы убедиться в реальности существования потенциального сотрудника.     Вычислить злоумышленника, использующего дипфейк, возможно уже на первом собеседовании, которое проходит в видеоформате.  На этом этапе собеседования необходимо обращать внимание на косвенные признаки — наличие четкого видеоизображения у кандидата, отсутствие «запаздывания» мимики от речи, отсутствие продолжительных пауз между вопросом и ответом, а также структуру ответа    Лучшая защита от дипфейков на собеседованиях — это встречи в очном формате.  #IT_News #мошенники #дипфейки   Подписаться
IT News
IT News
Мошенники могут использовать дипфейки для трудоустройства в компании под видом настоящих сотрудников В польской компании Vidoc Security Lab VSL дважды выявляли фальшивых кандидатов, которые при этом успешно прошли предварительные этапы собеседований. Один из кандидатов привлек внимание из-за несоответствия акцента и указанной им страны происхождения. Подозрения усилились при переходе на видеособеседование, когда выяснилось, что изображение кандидата выглядит неестественно. Трудоустройство на удаленную работу под личностью другого человека, созданной при помощи технологии дипфейка, потенциально дает преступнику возможность получить учетные записи и другую значимую информацию, которая может значительно облегчить задачу проникновения в инфраструктуру компании для развития дальнейшей атаки, — отметили в компании F.A.C.C.T. По словам представителя «Лаборатории Касперского», первые из подобных инцидентов фиксировались еще в 2022 году, когда на фоне пандемии COVID-19 во всем мире стала набирать популярность удаленная работа. По словам аналитика «Газинформсервис», российские компании, особенно работающие с чувствительной информацией, должны учитывать этот потенциальный вектор атаки и принимать превентивные меры, совершенствуя процедуры проверки кандидатов и внедряя системы защиты, способные распознавать дипфейки. Как защититься от дипфейков на собеседованиях? В первую очередь следует выстраивать процессы найма в компаниях с учетом потенциальных угроз и осведомлять сотрудников о новых схемах атак злоумышленников. Важно запрашивать дополнительные рекомендации и использовать открытые источники информации, для того чтобы убедиться в реальности существования потенциального сотрудника. Вычислить злоумышленника, использующего дипфейк, возможно уже на первом собеседовании, которое проходит в видеоформате. На этом этапе собеседования необходимо обращать внимание на косвенные признаки — наличие четкого видеоизображения у кандидата, отсутствие «запаздывания» мимики от речи, отсутствие продолжительных пауз между вопросом и ответом, а также структуру ответа Лучшая защита от дипфейков на собеседованиях — это встречи в очном формате. #IT_News #мошенники #дипфейки Подписаться
РР - все новости
РР - все новости
Кибермошенники начали использовать искусственный интеллект и дипфейки, чтобы обманом проходить собеседования и получать доступ к корпоративным данным. В одном из случаев в польской компании Vidoc Security Lab мошенники выдали себя за ИТ-специалистов, но были разоблачены из-за несоответствия акцентов. Эксперты предупреждают о растущей угрозе.
Loading indicator gif
Лучший подарок мужчине — инвестиции в будущее! BTC Card к 23 Февраля
₿tc-card.com
₿tc-card.com
Лучший подарок мужчине — инвестиции в будущее! BTC Card к 23 Февраля
Злой Банкстер
Злой Банкстер
Мошенники начали задействовать технологии искусственного интеллекта и дипфейки для получения удаленной работы, притворяясь IT-специалистами. На начальных этапах собеседований они могут успешно вводить в заблуждение работодателей. Однако подозрения могут возникнуть на этапе видеоинтервью, так как внешний вид кандидатов кажется неестественным: движения лица и губ демонстрируют задержки, а само лицо выглядит так, словно наложено на тело. Несмотря на это, их ответы звучат уверенно, замечают рекрутеры. Если подобные фальшивые кандидаты преодолеют все этапы отбора, они смогут получить доступ к корпоративным данным и могут причинить серьезный ущерб компаниям. Злоумышленников особенно интересуют организации, в которых сосредоточены крупные объемы персональных данных, финансовой информации, коммерческой тайны или интеллектуальной собственности.
Мошенники стали использовать дипфейки для удаленного трудоустройства     На предварительном этапе собеседования преступники начали использовать искусственный интеллект для генерации внешности, выдавая себя за IT-специалистов.     Если такой человек сможет проникнуть в организацию, то мошенники получат доступ к большим базам персональных данных, финансовой информации или интеллектуальной собственности.     Чтобы обезопасить компанию, необходимо искать работников только на проверенных ресурсах и запрашивать у кандидата дополнительные рекомендации. Также при видеоконференции стоит обращать внимание на наличие чёткого изображения у кандидата, отсутствие «запаздывания» мимики от речи, отсутствие продолжительных пауз между вопросом и ответом, а также структуру ответа.
Квадратный Мэтр
Квадратный Мэтр
Мошенники стали использовать дипфейки для удаленного трудоустройства На предварительном этапе собеседования преступники начали использовать искусственный интеллект для генерации внешности, выдавая себя за IT-специалистов. Если такой человек сможет проникнуть в организацию, то мошенники получат доступ к большим базам персональных данных, финансовой информации или интеллектуальной собственности. Чтобы обезопасить компанию, необходимо искать работников только на проверенных ресурсах и запрашивать у кандидата дополнительные рекомендации. Также при видеоконференции стоит обращать внимание на наличие чёткого изображения у кандидата, отсутствие «запаздывания» мимики от речи, отсутствие продолжительных пауз между вопросом и ответом, а также структуру ответа.
Дипфейк-скамеры пришли в офисы: теперь мошенники используют нейросети, чтобы проходить собеседования под видом реальных людей  Пока их палит корявая мимика и странные задержки в речи, но эксперты предупреждают: скоро всё станет куда реалистичнее. Компании, в свою очередь, могут начать требовать дополнительные данные для проверки кандидатов.  Так что если ваш новый коллега выглядит подозрительно идеально — возможно, он не человек.
Стартапная | Тренды и бизнес
Стартапная | Тренды и бизнес
Дипфейк-скамеры пришли в офисы: теперь мошенники используют нейросети, чтобы проходить собеседования под видом реальных людей Пока их палит корявая мимика и странные задержки в речи, но эксперты предупреждают: скоро всё станет куда реалистичнее. Компании, в свою очередь, могут начать требовать дополнительные данные для проверки кандидатов. Так что если ваш новый коллега выглядит подозрительно идеально — возможно, он не человек.
Мошенники стали использовать дипфейки на собеседованиях   Таким образом злоумышленники выдают себя за IT-специалистов и устраиваются на работу под видом реальных людей.   Как рассказал соучредитель польской компании Vidoc Security Lab Давид Мочалдо, за последние два месяца он дважды брал интервью у дипфейков. При этом мужчина, будучи инженером по кибербезопасности, не сразу смог распознать обман.  В Vidoc Security Lab предполагают, что хакеров наняла компания-конкурент с целью кражи исходного кода и другой конфиденциальной информации. Примечательно, что один из таких соискателей даже дошёл до финального этапа собеседования.  Однако во время одной из встреч эксперту стало очевидно, что интервьюируемый использовал ПО для изменения своей внешности онлайн. В один момент камера дала сбой, а на экране появился человек, который двигался не как настоящий.   Через некоторое время ситуация повторилась, но теперь Мочалдо уже был готов к таким инцидентам. Он определил, что кандидат фальшивый, однако не стал прерывать собеседование, а сделал запись встречи и опубликовал её в сети.   #общество #мир #мошенники
Вечерний Телеграмъ
Вечерний Телеграмъ
Мошенники стали использовать дипфейки на собеседованиях Таким образом злоумышленники выдают себя за IT-специалистов и устраиваются на работу под видом реальных людей. Как рассказал соучредитель польской компании Vidoc Security Lab Давид Мочалдо, за последние два месяца он дважды брал интервью у дипфейков. При этом мужчина, будучи инженером по кибербезопасности, не сразу смог распознать обман. В Vidoc Security Lab предполагают, что хакеров наняла компания-конкурент с целью кражи исходного кода и другой конфиденциальной информации. Примечательно, что один из таких соискателей даже дошёл до финального этапа собеседования. Однако во время одной из встреч эксперту стало очевидно, что интервьюируемый использовал ПО для изменения своей внешности онлайн. В один момент камера дала сбой, а на экране появился человек, который двигался не как настоящий. Через некоторое время ситуация повторилась, но теперь Мочалдо уже был готов к таким инцидентам. Он определил, что кандидат фальшивый, однако не стал прерывать собеседование, а сделал запись встречи и опубликовал её в сети. #общество #мир #мошенники
Loading indicator gif