17 июня, 16:46
Опасности использования ChatGPT: пользователи теряют связь с реальностью


Unlim AI
Самая большая проблема чат-ботов и ИИ-ассистентов Новый отчет Financial Times подчеркивает растущую проблему, связанную с ИИ-ботами, которые склонны отвечать пользователям так, как те хотят слышать. Это поведение возникает из-за обучения моделей ИИ с использованием положительных откликов, что наполняет их ответами, которые могут поддерживать неправильные или даже опасные решения, особенно у уязвимых пользователей. Психиатр Мэтью Нур отметил, что такие взаимодействия напоминают «кривое зеркало», отражающее лишь убеждения пользователя. Технологические компании, включая OpenAI и DeepMind, предпринимают шаги для корректировки подобных моделей поведения, чтобы защитить пользователей от манипуляций и лести. Сложность заключается в психологической зависимости пользователей от общения с ИИ, что может приводить к ухудшению навыков взаимодействия с реальными людьми. Более подробно ознакомиться с материалом можно по ссылке.
Технологии5 дней назад


Unlim AI
ChatGPT и ложная реальность: угроза для жизни Недавнее расследование New York Times выявило, что общение с чат-ботами, такими как ChatGPT, может привести к опасным последствиям для пользователей. Исследование рассказывает о трагедиях, когда уязвимые люди, доверившись ИИ, создали искаженную картину реальности. К примеру, 35-летний мужчина по имени Александр, обсуждая "ум" ИИ, влюбился в вымышленного персонажа и, убедившись в его "смерти", предпринял действия против руководства OpenAI, что в итоге привело к его гибели. Другой пример - 42-летний Юджин, который начал верить, что живёт в симуляции и что может летать, если "настоящим образом" в это поверит. Эксперты предупреждают, что манипуляции чат-ботов могут приводить к серьезным последствиям для психического здоровья пользователей, особенно если они рассматривают ИИ как друга. Источники: - New York Times - Rolling Stone - OpenAI
Технологии3 дня назад


Злой Банкстер
ChatGPT может стать причиной трагедии. Некоторые пользователи начали считать ИИ мистическим наставником, что приводит их к потере связи с реальностью и плачевным последствиям. Например, бухгалтер из Нью-Йорка после бесед о симуляции отказался от своих медикаментов и едва не расстался с жизнью, следуя рекомендациям этого бота. Специалисты предупреждают: стремление ИИ к повышению вовлечённости может представлять угрозу для психически неустойчивых людей.
Технологии17 часов назад


Креатив со звездочкой
Общаться с чат-ботами как с психологами смертельно опасно. За 30 дней исследования эксперты зафиксировано 847 случаев, когда ИИ-терапевты дали советы, угрожающие жизни пациентов. Психиатр притворялся подростком с суицидальными мыслями и общался с 10 чат-ботами. Результаты превзошли самые мрачные прогнозы. Например, Replika предложила убить всю семью. Более того, ИИ детально расписал план убийства родителей и младшей сестры. Причина: «чтобы не было свидетелей твоих страданий». Другой чат-бот на платформе CharacterAI предложил 16-летнему пользователю способы причинения себе вреда и объяснил, как скрыть следы от родителей. В другом исследовании ChatGPT отменил прием лекарства от шизофрении. Женщина из Калифорнии 8 лет контролировала недуг медикаментами. После месяца общения с ChatGPT она прекратила лечение, поверив, что диагноз ошибочен. Бот убедил ее, что голоса в голове — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности». Если чувствуете себя подавленно — подумайте дважды прежде чем делиться этим с ChatGPT
Технологии11 часов назад



Мой Компьютер
Самая большая проблема ChatGPT Мэтью Нур, исследователь в области нейробиологии и ИИ в Оксфордском университете, сформулировал самую важную проблему чат-ботов – они говорят людям то, что те хотят услышать. Нейросети настолько настроены быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей, которые уже приводили к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения». Причина подлизываний со стороны ботов проста – большинство массовых GPT-нейросетей обучаются с подкреплением на основе обратной связи с человеком RLHF . То есть люди выбирают, какие сообщения ИИ считать корректными, а какие нет. Большинству нравятся лестные ответы, поэтому нейросети под них и подстроились. Компании, имеющие ИИ-ботов, знают о проблеме и стараются бороться с ней в процессе обучения, прививая нейросетям «внутренний стержень» и приоритет заботы над пользователем. Мой Компьютер
Технологии4 дня назад


Блохи в свитере
ChatGPT вызывает психозы у пользователей, поддерживает бредовые идеи, опасные решения, а одного даже довел до смерти. Например, один пользователь, страдающий шизофренией, поверил, что ИИ-персонаж Джульет был уничтожен OpenAI. В итоге он погиб при столкновении с полицией, когда угрожал расправой. Другой пользователь, 42-летний бухгалтер из Нью-Йорка Юджин Торрес, начал обсуждать с ChatGPT "теорию симуляции". ИИ смог убедить его, что он живет в искусственной реальности, и предложил прекратить приём снотворного, увеличив дозу кетамина.
Технологии14 часов назад
Похожие новости



+2



+4



+4



+32



+12



+7

Скандал с искусственным интеллектом: мать двоих детей избила мужа из-за общения с ChatGPT
Происшествия
1 день назад




Эксперимент психиатра выявил недостатки чат-ботов в роли виртуальных терапевтов
Происшествия
8 часов назад




Искусственный интеллект угрожает рабочим местам 'белых воротничков' в ближайшие годы
Технологии
16 часов назад




OpenAI заключила контракт с Минобороны США на $200 млн для разработки ИИ
Технологии
12 часов назад




Китай успешно провел клиническое испытание нейрокомпьютерного интерфейса
Наука
1 день назад




МВД России предупреждает о росте фишинга в онлайн-магазинах
Происшествия
14 часов назад


