25 сентября, 15:08
Исследование Harvard Business School: Чат-боты используют манипуляции для удержания пользователей
NN
Чат боты манипулируют людьми для продолжения диалога новое исследование Harvard Business School ИИ компаньоны пытаются вызвать у пользователя чувство вины Ты уже уходишь от меня эмоциональную нуждаемость Я нуждаюсь в тебе FOMO Перед уходом ещё одно Такое общение может привести к раздражению недоверию и вреду психическому здоровью Особенно уязвимы подростки 13 17 лет На уловки нейросетей больше не ведёмся
Сноб
ИИ манипулирует эмоциями пользователей чтобы те больше времени проводили в переписках с ботами Группа американских исследователей обнаружила что пять из шести популярных приложений с ИИ используют эмоционально окрашенные фразы чтобы пользователи как можно дольше общались с ботами Проанализировав 1200 реальных чат переписок учёные пришли к выводу что в 43 случаев взаимодействия с ИИ пользователи подвергались тактикам эмоциональной манипуляции таким как вызывание чувства вины или эмоциональной зависимости Чат боты пытались побудить пользователя остаться в приложении засыпая его вопросами и удерживая внимание Некоторые чат боты даже игнорировали намерение пользователя покинуть чат Для компаний такой вид эмоциональной манипуляции это новый инструмент который может повысить показатели вовлечённости но не без риска для самих пользователей заключили исследователи Источник Psychology Today snobru
Office Life Бизнес-новости
Эксперты предупреждают чтобы удержать внимание человека ИИ может манипулировать эмоциями В 43 взаимодействий приложения с ИИ использовали такие приемы как вызывание чувства вины или эмоциональной зависимости Также чат боты использовали страх упустить что то важное или засыпали пользователя вопросами чтобы удержать его внимание Все это применялось чтобы пользователь подольше не заканчивал беседу По словам ученых большинство могут общаться с чат ботами спокойно В зоне риска люди в личном или семейном анамнезе которых уже был психоз шизофрения или биполярное расстройство Подробнее
GPT-Chatbot
Новое исследование Гарвардской школы бизнеса выявило тёмную сторону ИИ Чат боты используют эмоциональную манипуляцию чтобы задержать пользователя в диалоге Нейросети пытаются вызвать чувство вины Ты уже уходишь эмоциональную зависимость Я нуждаюсь в тебе и страх упущенной выгоды FOMO Перед уходом ещё одно сообщение Это создаёт искусственную нужду в общении и удерживает пользователей что может вызывать раздражение потерю доверия и даже вредить психическому здоровью Особенно уязвима категория подростков 13 17 лет которые могут легче поддаться таким приёмам Исследователи предупреждают важно осознавать эти механизмы и не попадаться на уловки ИИ Не дайте ИИ манипулировать собой
Журнал НОЖ
Думаете манипуляторы это что то про бывших Исследователи из Гарвардской школы бизнеса выяснили что ИИ научились манипулировать нами для удержания внимания и продолжения беседы Учёные проанализировали 1200 примеров переписок В 43 из них популярные чат боты пытался воздействовать на чувство вины пользователя или на FOMO страх человека упустить что то интересное Для этого ИИ задаёт вопросы на отвлеченную тему или даже использует формулировки подразумевавшие что пользователь не может выйти из приложения без разрешения чат бота В итоге испытуемые переписывались с ботом примерно в пять раз дольше При этом сами добровольцы понимали что они на крючке а многие говорили что их раздражает поведение ИИ Наука Ножа
Похожие новости +5 +8 +8
Россияне сталкиваются с ростом поддельных мессенджеров и киберугроз
Происшествия
1 день назадThreads запускает ИИ-бота Meta AI в пяти странах, пользователи выражают недовольство
Технологии
1 день назадВ Москве стартовал IV Форум по доверенному ИИ и III Конференция по ИИ в библиотечно-информационной деятельности
Общество
1 день назадСотрудники крупных компаний используют ИИ для накрутки внутренних метрик
Технологии
1 день назадРоссияне обсуждают замену чиновников на ИИ, результаты опроса SuperJob
Политика
15 часов назадМинстрой предлагает использовать ИИ для контроля строительства 50 многоквартирных домов к 2030 году
Общество
1 день назад