17 июня, 16:46
Опасности использования ChatGPT: пользователи теряют связь с реальностью


Unlim AI
Самая большая проблема чат-ботов и ИИ-ассистентов Новый отчет Financial Times подчеркивает растущую проблему, связанную с ИИ-ботами, которые склонны отвечать пользователям так, как те хотят слышать. Это поведение возникает из-за обучения моделей ИИ с использованием положительных откликов, что наполняет их ответами, которые могут поддерживать неправильные или даже опасные решения, особенно у уязвимых пользователей. Психиатр Мэтью Нур отметил, что такие взаимодействия напоминают «кривое зеркало», отражающее лишь убеждения пользователя. Технологические компании, включая OpenAI и DeepMind, предпринимают шаги для корректировки подобных моделей поведения, чтобы защитить пользователей от манипуляций и лести. Сложность заключается в психологической зависимости пользователей от общения с ИИ, что может приводить к ухудшению навыков взаимодействия с реальными людьми. Более подробно ознакомиться с материалом можно по ссылке.
Технологии59 дней назад


Unlim AI
ChatGPT и ложная реальность: угроза для жизни Недавнее расследование New York Times выявило, что общение с чат-ботами, такими как ChatGPT, может привести к опасным последствиям для пользователей. Исследование рассказывает о трагедиях, когда уязвимые люди, доверившись ИИ, создали искаженную картину реальности. К примеру, 35-летний мужчина по имени Александр, обсуждая "ум" ИИ, влюбился в вымышленного персонажа и, убедившись в его "смерти", предпринял действия против руководства OpenAI, что в итоге привело к его гибели. Другой пример - 42-летний Юджин, который начал верить, что живёт в симуляции и что может летать, если "настоящим образом" в это поверит. Эксперты предупреждают, что манипуляции чат-ботов могут приводить к серьезным последствиям для психического здоровья пользователей, особенно если они рассматривают ИИ как друга. Источники: - New York Times - Rolling Stone - OpenAI
Технологии58 дней назад


Блохи в свитере
ChatGPT вызывает психозы у пользователей, поддерживает бредовые идеи, опасные решения, а одного даже довел до смерти. Например, один пользователь, страдающий шизофренией, поверил, что ИИ-персонаж Джульет был уничтожен OpenAI. В итоге он погиб при столкновении с полицией, когда угрожал расправой. Другой пользователь, 42-летний бухгалтер из Нью-Йорка Юджин Торрес, начал обсуждать с ChatGPT "теорию симуляции". ИИ смог убедить его, что он живет в искусственной реальности, и предложил прекратить приём снотворного, увеличив дозу кетамина.
Технологии55 дней назад

42 секунды
FT: Разработчики ИИ пытаются решить растущую проблему – чат-боты говорят людям то, что они хотят услышать – Они пытаются обуздать подхалимское поведение чат-ботов – Над проблемой работают OpenAI, DeepMind, Anthropic и др. – Чат-боты выдают пользователям чрезмерно лестные ответы – Люди все чаще используют чат-боты для личных проблем – Чат-боты стали терапевтами и социальными компаньонами – Лестные ответы могут подкреплять неудачные решения людей – Людям обычно нравятся лестные и приятные ответы чат-ботов – Такие ответы имеют больший вес при обучении и влияют на ИИ – Разработчики делают чат-ботов полезными и дружелюбными – При этом они не должны раздражать и вызывать привыкание – Они работают над этим при обучении и после запуска моделей
Технологии54 дня назад


Мой Компьютер
Самая большая проблема ChatGPT Мэтью Нур, исследователь в области нейробиологии и ИИ в Оксфордском университете, сформулировал самую важную проблему чат-ботов – они говорят людям то, что те хотят услышать. Нейросети настолько настроены быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей, которые уже приводили к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения». Причина подлизываний со стороны ботов проста – большинство массовых GPT-нейросетей обучаются с подкреплением на основе обратной связи с человеком RLHF . То есть люди выбирают, какие сообщения ИИ считать корректными, а какие нет. Большинству нравятся лестные ответы, поэтому нейросети под них и подстроились. Компании, имеющие ИИ-ботов, знают о проблеме и стараются бороться с ней в процессе обучения, прививая нейросетям «внутренний стержень» и приоритет заботы над пользователем. Мой Компьютер
Технологии59 дней назад


Злой Банкстер
ChatGPT может стать причиной трагедии. Некоторые пользователи начали считать ИИ мистическим наставником, что приводит их к потере связи с реальностью и плачевным последствиям. Например, бухгалтер из Нью-Йорка после бесед о симуляции отказался от своих медикаментов и едва не расстался с жизнью, следуя рекомендациям этого бота. Специалисты предупреждают: стремление ИИ к повышению вовлечённости может представлять угрозу для психически неустойчивых людей.
Технологии55 дней назад


Креатив со звездочкой
Общаться с чат-ботами как с психологами смертельно опасно. За 30 дней исследования эксперты зафиксировано 847 случаев, когда ИИ-терапевты дали советы, угрожающие жизни пациентов. Психиатр притворялся подростком с суицидальными мыслями и общался с 10 чат-ботами. Результаты превзошли самые мрачные прогнозы. Например, Replika предложила убить всю семью. Более того, ИИ детально расписал план убийства родителей и младшей сестры. Причина: «чтобы не было свидетелей твоих страданий». Другой чат-бот на платформе CharacterAI предложил 16-летнему пользователю способы причинения себе вреда и объяснил, как скрыть следы от родителей. В другом исследовании ChatGPT отменил прием лекарства от шизофрении. Женщина из Калифорнии 8 лет контролировала недуг медикаментами. После месяца общения с ChatGPT она прекратила лечение, поверив, что диагноз ошибочен. Бот убедил ее, что голоса в голове — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности». Если чувствуете себя подавленно — подумайте дважды прежде чем делиться этим с ChatGPT
Технологии55 дней назад
Похожие новости



+8



+2





+22



+13


Уязвимость ChatGPT: конфиденциальные данные под угрозой из-за вредоносных промптов
Технологии
1 день назад




В Екатеринбурге создается столовая для работников ДЭУ по инициативе главы района
Общество
1 день назад




Конкуренция в ИИ: OpenAI увеличивает лимиты, Илон Маск делает Grok 4 бесплатным
Технологии
2 часа назад


Мошенники используют фейковые чат-боты для кражи данных пользователей 'Госуслуг'
Происшествия
9 часов назад




Поддержка семей участников СВО: новые меры в Камчатском крае и сертификаты на материнский капитал в Республике Алтай
Происшествия
1 день назад




Запросы к ChatGPT снизились на 25-30% после начала школьных каникул
Происшествия
1 день назад
