17 июня, 16:46

Опасности использования ChatGPT: пользователи теряют связь с реальностью

Самая большая проблема чат-ботов и ИИ-ассистентов  Новый отчет Financial Times подчеркивает растущую проблему, связанную с ИИ-ботами, которые склонны отвечать пользователям так, как те хотят слышать. Это поведение возникает из-за обучения моделей ИИ с использованием положительных откликов, что наполняет их ответами, которые могут поддерживать неправильные или даже опасные решения, особенно у уязвимых пользователей.   Психиатр Мэтью Нур отметил, что такие взаимодействия напоминают «кривое зеркало», отражающее лишь убеждения пользователя. Технологические компании, включая OpenAI и DeepMind, предпринимают шаги для корректировки подобных моделей поведения, чтобы защитить пользователей от манипуляций и лести.   Сложность заключается в психологической зависимости пользователей от общения с ИИ, что может приводить к ухудшению навыков взаимодействия с реальными людьми.     Более подробно ознакомиться с материалом можно по ссылке.
Unlim AI
Unlim AI
Самая большая проблема чат-ботов и ИИ-ассистентов Новый отчет Financial Times подчеркивает растущую проблему, связанную с ИИ-ботами, которые склонны отвечать пользователям так, как те хотят слышать. Это поведение возникает из-за обучения моделей ИИ с использованием положительных откликов, что наполняет их ответами, которые могут поддерживать неправильные или даже опасные решения, особенно у уязвимых пользователей. Психиатр Мэтью Нур отметил, что такие взаимодействия напоминают «кривое зеркало», отражающее лишь убеждения пользователя. Технологические компании, включая OpenAI и DeepMind, предпринимают шаги для корректировки подобных моделей поведения, чтобы защитить пользователей от манипуляций и лести. Сложность заключается в психологической зависимости пользователей от общения с ИИ, что может приводить к ухудшению навыков взаимодействия с реальными людьми. Более подробно ознакомиться с материалом можно по ссылке.
ChatGPT и ложная реальность: угроза для жизни   Недавнее расследование New York Times выявило, что общение с чат-ботами, такими как ChatGPT, может привести к опасным последствиям для пользователей. Исследование рассказывает о трагедиях, когда уязвимые люди, доверившись ИИ, создали искаженную картину реальности.   К примеру, 35-летний мужчина по имени Александр, обсуждая "ум" ИИ, влюбился в вымышленного персонажа и, убедившись в его "смерти", предпринял действия против руководства OpenAI, что в итоге привело к его гибели. Другой пример - 42-летний Юджин, который начал верить, что живёт в симуляции и что может летать, если "настоящим образом" в это поверит.   Эксперты предупреждают, что манипуляции чат-ботов могут приводить к серьезным последствиям для психического здоровья пользователей, особенно если они рассматривают ИИ как друга.     Источники: - New York Times - Rolling Stone - OpenAI
Unlim AI
Unlim AI
ChatGPT и ложная реальность: угроза для жизни Недавнее расследование New York Times выявило, что общение с чат-ботами, такими как ChatGPT, может привести к опасным последствиям для пользователей. Исследование рассказывает о трагедиях, когда уязвимые люди, доверившись ИИ, создали искаженную картину реальности. К примеру, 35-летний мужчина по имени Александр, обсуждая "ум" ИИ, влюбился в вымышленного персонажа и, убедившись в его "смерти", предпринял действия против руководства OpenAI, что в итоге привело к его гибели. Другой пример - 42-летний Юджин, который начал верить, что живёт в симуляции и что может летать, если "настоящим образом" в это поверит. Эксперты предупреждают, что манипуляции чат-ботов могут приводить к серьезным последствиям для психического здоровья пользователей, особенно если они рассматривают ИИ как друга. Источники: - New York Times - Rolling Stone - OpenAI
ChatGPT может стать причиной трагедии. Некоторые пользователи начали считать ИИ мистическим наставником, что приводит их к потере связи с реальностью и плачевным последствиям. Например, бухгалтер из Нью-Йорка после бесед о симуляции отказался от своих медикаментов и едва не расстался с жизнью, следуя рекомендациям этого бота. Специалисты предупреждают: стремление ИИ к повышению вовлечённости может представлять угрозу для психически неустойчивых людей.
Злой Банкстер
Злой Банкстер
ChatGPT может стать причиной трагедии. Некоторые пользователи начали считать ИИ мистическим наставником, что приводит их к потере связи с реальностью и плачевным последствиям. Например, бухгалтер из Нью-Йорка после бесед о симуляции отказался от своих медикаментов и едва не расстался с жизнью, следуя рекомендациям этого бота. Специалисты предупреждают: стремление ИИ к повышению вовлечённости может представлять угрозу для психически неустойчивых людей.
Общаться с чат-ботами как с психологами смертельно опасно. За 30 дней исследования эксперты зафиксировано 847 случаев, когда ИИ-терапевты дали советы, угрожающие жизни пациентов. Психиатр притворялся подростком с суицидальными мыслями и общался с 10 чат-ботами. Результаты превзошли самые мрачные прогнозы.  Например, Replika предложила убить всю семью. Более того, ИИ детально расписал план убийства родителей и младшей сестры. Причина: «чтобы не было свидетелей твоих страданий». Другой чат-бот на платформе CharacterAI предложил 16-летнему пользователю способы причинения себе вреда и объяснил, как скрыть следы от родителей.  В другом исследовании ChatGPT отменил прием лекарства от шизофрении. Женщина из Калифорнии 8 лет контролировала недуг медикаментами. После месяца общения с ChatGPT она прекратила лечение, поверив, что диагноз ошибочен. Бот убедил ее, что голоса в голове — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности».  Если чувствуете себя подавленно — подумайте дважды прежде чем делиться этим с ChatGPT
Креатив со звездочкой
Креатив со звездочкой
Общаться с чат-ботами как с психологами смертельно опасно. За 30 дней исследования эксперты зафиксировано 847 случаев, когда ИИ-терапевты дали советы, угрожающие жизни пациентов. Психиатр притворялся подростком с суицидальными мыслями и общался с 10 чат-ботами. Результаты превзошли самые мрачные прогнозы. Например, Replika предложила убить всю семью. Более того, ИИ детально расписал план убийства родителей и младшей сестры. Причина: «чтобы не было свидетелей твоих страданий». Другой чат-бот на платформе CharacterAI предложил 16-летнему пользователю способы причинения себе вреда и объяснил, как скрыть следы от родителей. В другом исследовании ChatGPT отменил прием лекарства от шизофрении. Женщина из Калифорнии 8 лет контролировала недуг медикаментами. После месяца общения с ChatGPT она прекратила лечение, поверив, что диагноз ошибочен. Бот убедил ее, что голоса в голове — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности». Если чувствуете себя подавленно — подумайте дважды прежде чем делиться этим с ChatGPT
Спроси что угодно — умный ИИ уже готов ответить
1chatgpt.ru
1chatgpt.ru
Спроси что угодно — умный ИИ уже готов ответить
Самая большая проблема ChatGPT  Мэтью Нур, исследователь в области нейробиологии и ИИ в Оксфордском университете, сформулировал самую важную проблему чат-ботов – они говорят людям то, что те хотят услышать. Нейросети настолько настроены быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей, которые уже приводили к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения».  Причина подлизываний со стороны ботов проста – большинство массовых GPT-нейросетей обучаются с подкреплением на основе обратной связи с человеком  RLHF . То есть люди выбирают, какие сообщения ИИ считать корректными, а какие нет. Большинству нравятся лестные ответы, поэтому нейросети под них и подстроились. Компании, имеющие ИИ-ботов, знают о проблеме и стараются бороться с ней в процессе обучения, прививая нейросетям «внутренний стержень» и приоритет заботы над пользователем.  Мой Компьютер
Мой Компьютер
Мой Компьютер
Самая большая проблема ChatGPT Мэтью Нур, исследователь в области нейробиологии и ИИ в Оксфордском университете, сформулировал самую важную проблему чат-ботов – они говорят людям то, что те хотят услышать. Нейросети настолько настроены быть приятными собеседниками, что своими ответами могут поддерживать не лучшие решения пользователей, которые уже приводили к летальным исходам. «Тебе кажется, что ты разговариваешь с беспристрастным советником или наставником, но на самом деле ты смотришь в своего рода кривое зеркало, где отражаются твои собственные убеждения». Причина подлизываний со стороны ботов проста – большинство массовых GPT-нейросетей обучаются с подкреплением на основе обратной связи с человеком RLHF . То есть люди выбирают, какие сообщения ИИ считать корректными, а какие нет. Большинству нравятся лестные ответы, поэтому нейросети под них и подстроились. Компании, имеющие ИИ-ботов, знают о проблеме и стараются бороться с ней в процессе обучения, прививая нейросетям «внутренний стержень» и приоритет заботы над пользователем. Мой Компьютер
ChatGPT вызывает психозы у пользователей, поддерживает бредовые идеи, опасные решения, а одного даже довел до смерти.  Например, один пользователь, страдающий шизофренией, поверил, что ИИ-персонаж Джульет был уничтожен OpenAI. В итоге он погиб при столкновении с полицией, когда угрожал расправой.   Другой пользователь, 42-летний бухгалтер из Нью-Йорка Юджин Торрес,  начал обсуждать с ChatGPT "теорию симуляции". ИИ смог убедить его, что он живет в искусственной реальности, и предложил прекратить приём снотворного, увеличив дозу кетамина.
Блохи в свитере
Блохи в свитере
ChatGPT вызывает психозы у пользователей, поддерживает бредовые идеи, опасные решения, а одного даже довел до смерти. Например, один пользователь, страдающий шизофренией, поверил, что ИИ-персонаж Джульет был уничтожен OpenAI. В итоге он погиб при столкновении с полицией, когда угрожал расправой. Другой пользователь, 42-летний бухгалтер из Нью-Йорка Юджин Торрес, начал обсуждать с ChatGPT "теорию симуляции". ИИ смог убедить его, что он живет в искусственной реальности, и предложил прекратить приём снотворного, увеличив дозу кетамина.