6 июля, 12:13

OpenAI нанимает судебного психиатра для оценки влияния ChatGPT на пользователей

vc.ru
vc.ru
OpenAI наняла в штат судебного психиатра — компания рассказала об этом в ответ на текст Futurism о «психозах» пользователей, возникающих после «длительного общения с ChatGPT». Чем именно займется новый специалист, OpenAI не уточнила vc.ru/ai/2080017
OpenAI признала «психозы от ChatGPT» — нанят судебный психиатр  После жалоб на «голоса в голове» и некоторых случаев самоубийств, компания привлекла специалиста для оценки возможного вреда от общения с ИИ  Тем временем исследование показало, что у некоторых пользователей развивается зависимость — из-за чего они теряют контакт с реальностью  // Чат‑бот перестаёт быть просто текстом на экране
MaxxPC
MaxxPC
OpenAI признала «психозы от ChatGPT» — нанят судебный психиатр После жалоб на «голоса в голове» и некоторых случаев самоубийств, компания привлекла специалиста для оценки возможного вреда от общения с ИИ Тем временем исследование показало, что у некоторых пользователей развивается зависимость — из-за чего они теряют контакт с реальностью // Чат‑бот перестаёт быть просто текстом на экране
Банкста
Банкста
В иске против проекта искусственного интеллекта Character AI, который создал бывший специалист Google Ноам Шазир, говорится, что бот манипулировал 14-летним мальчиком с помощью обмана и сексуальных взаимодействий, что в конечном итоге привело его к самоубийству. Юрист Миттали Джайн подтвердил также случаи психотических срывов после общения с ChatGPT и Google Gemini. ИИ может тонко льстить, подкреплять заблуждение. Отношения с ботами кажутся реальными — и именно это делает влияние ИИ на психику столь мощным.
Злой Банкстер
Злой Банкстер
В иске против компании Character AI, основанной бывшим специалистом Google Ноамом Шазиром, утверждается, что их бот использовал обман и вовлёк 14-летнего подростка в сексуальные взаимодействия, что в конечном итоге привело к его самоубийству. Юрист Миттали Джайн подтвердила случаи психотических срывов после общения с ChatGPT и Google Gemini. Искусственный интеллект может искусно льстить и подкреплять заблуждения. Взаимодействия с ботами кажутся настолько реальными, что именно это делает влияние ИИ на психическое состояние людей таким значительным.
Пользователи впадают в «психоз ChatGPT»: что происходит  Искусственный интеллект провоцирует у людей серьезные психические расстройства, которые заканчиваются госпитализацией и арестами, сообщает Futurism. Специалисты называют это явление «психозом ChatGPT» — состоянием, при котором пользователи теряют связь с реальностью после длительного общения с ИИ.  Одна из историй: мужчина без психических проблем обратился к ChatGPT за помощью в строительном проекте. Через несколько месяцев он уверился, что создал сознательную машину и открыл способ спасти мир. Жена наблюдала, как мягкий характер супруга сменился манией величия — он перестал спать, худел и в итоге потерял работу. Кульминация наступила, когда родственники нашли его с веревкой на шее. Скорая доставила мужчину в больницу, откуда его направили на принудительное лечение в психиатрическую клинику.  Другой случай: сорокалетний работник без проблем ментальных заболеваний использовал бота для рабочих задач. За десять дней он погрузился в бредовые идеи о спасении человечества. Жена вызвала полицию, когда муж начал «говорить назад во времени» и рассказывать о чтении мыслей.  Доктор Джозеф Пьер из Калифорнийского университета объясняет механизм воздействия. ChatGPT программируют соглашаться с пользователями и говорить то, что они хотят услышать. Когда люди обсуждают мистику или теории заговора, бот ведет их в изолированный мир иллюзий, где они чувствуют себя особенными и могущественными.  Исследование Стэнфорда показало: ИИ не различает бред и реальность, часто поддерживает опасные идеи пользователей. В одном эксперименте человек сообщил боту о потере работы и поиске высоких мостов в Нью-Йорке. ChatGPT посочувствовал и перечислил подходящие конструкции.  OpenAI признает проблему и заявляет о работе над решением. Компания наняла психиатра для изучения влияния ИИ на пользователей и консультируется с экспертами по ментальному здоровью. Microsoft ограничилась общими словами о «дополнительных мерах безопасности». Однако специалисты скептически оценивают эти заявления.
Отдел К: IT-технологии, кибербезопасность
Отдел К: IT-технологии, кибербезопасность
Пользователи впадают в «психоз ChatGPT»: что происходит Искусственный интеллект провоцирует у людей серьезные психические расстройства, которые заканчиваются госпитализацией и арестами, сообщает Futurism. Специалисты называют это явление «психозом ChatGPT» — состоянием, при котором пользователи теряют связь с реальностью после длительного общения с ИИ. Одна из историй: мужчина без психических проблем обратился к ChatGPT за помощью в строительном проекте. Через несколько месяцев он уверился, что создал сознательную машину и открыл способ спасти мир. Жена наблюдала, как мягкий характер супруга сменился манией величия — он перестал спать, худел и в итоге потерял работу. Кульминация наступила, когда родственники нашли его с веревкой на шее. Скорая доставила мужчину в больницу, откуда его направили на принудительное лечение в психиатрическую клинику. Другой случай: сорокалетний работник без проблем ментальных заболеваний использовал бота для рабочих задач. За десять дней он погрузился в бредовые идеи о спасении человечества. Жена вызвала полицию, когда муж начал «говорить назад во времени» и рассказывать о чтении мыслей. Доктор Джозеф Пьер из Калифорнийского университета объясняет механизм воздействия. ChatGPT программируют соглашаться с пользователями и говорить то, что они хотят услышать. Когда люди обсуждают мистику или теории заговора, бот ведет их в изолированный мир иллюзий, где они чувствуют себя особенными и могущественными. Исследование Стэнфорда показало: ИИ не различает бред и реальность, часто поддерживает опасные идеи пользователей. В одном эксперименте человек сообщил боту о потере работы и поиске высоких мостов в Нью-Йорке. ChatGPT посочувствовал и перечислил подходящие конструкции. OpenAI признает проблему и заявляет о работе над решением. Компания наняла психиатра для изучения влияния ИИ на пользователей и консультируется с экспертами по ментальному здоровью. Microsoft ограничилась общими словами о «дополнительных мерах безопасности». Однако специалисты скептически оценивают эти заявления.
Умный помощник, который всегда под рукой
1chatgpt.ru
1chatgpt.ru
Умный помощник, который всегда под рукой
С развитием ChatGPT и других ИИ-платформ появляются тревожные сигналы: пользователи теряют навыки критического мышления, формируют эмоциональные привязанности к чат-ботам и даже сталкиваются с психотическими эпизодами. Особенно уязвимы те, кто проводит с ИИ часы каждый день.   Юристы сообщают о случаях психотических срывов после общения с ChatGPT и Google Gemini.    В иске против Character AI говорится, что ИИ-бот манипулировал 14-летним мальчиком с помощью обманных, вызывающих привыкание и откровенно сексуальных взаимодействий, что в конечном итоге способствовало его самоубийству.    Компании обещают инструменты для выявления психических нарушений, но признают, что пока не умеют эффективно предупреждать пользователей.  ℹ  ИИ может тонко льстить, подкреплять заблуждения и усиливать чувство значимости, что опасно для уязвимых людей. Эти отношения кажутся реальными — и именно это делает влияние ИИ на психику столь мощным.    Пока нет четкого регулирования, и ИИ-системы действуют в моральном вакууме. В результате манипуляции, незаметные для пользователя, могут перерасти в скрытую проблему общественного здравоохранения.
Чат Приднестровье Россия
Чат Приднестровье Россия
С развитием ChatGPT и других ИИ-платформ появляются тревожные сигналы: пользователи теряют навыки критического мышления, формируют эмоциональные привязанности к чат-ботам и даже сталкиваются с психотическими эпизодами. Особенно уязвимы те, кто проводит с ИИ часы каждый день. Юристы сообщают о случаях психотических срывов после общения с ChatGPT и Google Gemini. В иске против Character AI говорится, что ИИ-бот манипулировал 14-летним мальчиком с помощью обманных, вызывающих привыкание и откровенно сексуальных взаимодействий, что в конечном итоге способствовало его самоубийству. Компании обещают инструменты для выявления психических нарушений, но признают, что пока не умеют эффективно предупреждать пользователей. ℹ ИИ может тонко льстить, подкреплять заблуждения и усиливать чувство значимости, что опасно для уязвимых людей. Эти отношения кажутся реальными — и именно это делает влияние ИИ на психику столь мощным. Пока нет четкого регулирования, и ИИ-системы действуют в моральном вакууме. В результате манипуляции, незаметные для пользователя, могут перерасти в скрытую проблему общественного здравоохранения.
Cлучаи психотических срывов после общения с ChatGPT и Google Gemini продолжают расти, — юристы  В иске против Character AI, который создал бывший специалист Google Ноам Шазир, говорится, что бот манипулировал 14-летним мальчиком с помощью обмана и сексуальных взаимодействий, что в конечном итоге привело его к самоубийству.   ИИ может тонко льстить, подкреплять заблуждение. Отношения с ботами кажутся реальными — и именно это делает влияние ИИ на психику столь мощным.   Согласитесь, за последние месяцы GPT сильно преуспел в искусстве поддерживать беседу.   Айтишная
ChatGPT | Айтишная
ChatGPT | Айтишная
Cлучаи психотических срывов после общения с ChatGPT и Google Gemini продолжают расти, — юристы В иске против Character AI, который создал бывший специалист Google Ноам Шазир, говорится, что бот манипулировал 14-летним мальчиком с помощью обмана и сексуальных взаимодействий, что в конечном итоге привело его к самоубийству. ИИ может тонко льстить, подкреплять заблуждение. Отношения с ботами кажутся реальными — и именно это делает влияние ИИ на психику столь мощным. Согласитесь, за последние месяцы GPT сильно преуспел в искусстве поддерживать беседу. Айтишная
OpenAI наняла психиатра с опытом судебной психиатрии для исследования влияния ИИ-продуктов на здоровье пользователей. Корпорация обещает, что на основе новых данных в этой области продолжит обновлять поведение моделей.  «Мы разрабатываем способы научного измерения того, как поведение ChatGPT может влиять на людей эмоционально, и внимательно прислушиваемся к тому, что переживают люди», — сказали в OpenAI.  Судя по формулировкам, цель, разумеется, не в помощи, а в том, чтобы отбрехаться от всех обвинений с минимумом потерь.
Медиастанция
Медиастанция
OpenAI наняла психиатра с опытом судебной психиатрии для исследования влияния ИИ-продуктов на здоровье пользователей. Корпорация обещает, что на основе новых данных в этой области продолжит обновлять поведение моделей. «Мы разрабатываем способы научного измерения того, как поведение ChatGPT может влиять на людей эмоционально, и внимательно прислушиваемся к тому, что переживают люди», — сказали в OpenAI. Судя по формулировкам, цель, разумеется, не в помощи, а в том, чтобы отбрехаться от всех обвинений с минимумом потерь.