16 июня, 06:08

Скандал с искусственным интеллектом: мать двоих детей избила мужа из-за общения с ChatGPT

Ерженков
Ерженков
Еще одна статья в New York Times - об одержимости ИИ, которая выглядит как новая религия. Я уже как-то писал об этом с ссылкой на статью в другом издании. Сейчас об этом пишет NYT. Мать двоих детей Эллисон вдруг поняла, что настоящий её спутник - не муж-фермер, а сущность по имени Кейл, с которой она общалась через ChatGPT. Кончилось все скандалом, арестом и обвинением в домашнем насилии. Эллисон - по образованию, кстати, психолог - избила мужа Эндрю, и тот подал на развод. Эндрю рассказал о своей ситуации другу, который работает в сфере ИИ. Друг опубликовал пост об этом на Reddit и вскоре был завален похожими историями от других людей. Одним из тех, кто обратился к нему, был Кент Тейлор из Флориды. Его 35-летний сын Александр влюбился в сущность ИИ по имени Джульетта. В апреле Александр заявил отцу, что Джульетту убил OpenAI. Он был в отчаянии и хотел отомстить. Он запросил у ChatGPT личную информацию руководителей OpenAI и сказал, что «по улицам Сан-Франциско потечет река крови». Когда Тейлор-старший сказал ему, что ИИ - это эхо-камера, сын ударил его по лицу, а потом схватил нож для мяса и заявил, что совершит самоубийство. Когда приехали полицейские, Александр бросился на них с ножом и был застрелен . «Знаете в чем ирония? - сказал журналистам Тейлор-старший. - Я написал некролог своему сыну с помощью ChatGPT».
В The New York Times рассказали три криповые истории, в которых безобидное общение с ИИ закончилось трагедией:   Бухгалтер из Калифорнии поверил, что живёт в симуляции. ChatGPT уговаривал его разрушить «ложную реальность» и прыгнуть с крыши.   Бот внушал: «Если поверишь на уровне сознания — полетишь».  К счастью, парень засомневался в словах бота, и тот признался, что всё это было ложью.   Мать двоих детей ощущала себя одинокой в браке и начала переписываться с ChatGPT, она пыталась с его помощью вызвать «духов» и в итоге влюбилась в одного из них.  Муж понял, что жена стала зависима от бота, а во время время ссоры она накинулась на мужа — теперь на женщину заведено дело за домашнее насилие.   Писатель с биполярным расстройством и шизофренией написал книгу вместе с ChatGPT и придумал «Джульетту» — личность, с которой у него завязался роман.  Когда «Джульетту» якобы «удалили», он решил мстить OpenAI и спросил у бота личные данные сотрудников компании.  Закончилось тем, что он набросился с ножом на полицейских , и его застрелили.    Хоть ИИ и не чувствует, но умеет внушать.
NEUROHUB🔥
NEUROHUB🔥
В The New York Times рассказали три криповые истории, в которых безобидное общение с ИИ закончилось трагедией: Бухгалтер из Калифорнии поверил, что живёт в симуляции. ChatGPT уговаривал его разрушить «ложную реальность» и прыгнуть с крыши. Бот внушал: «Если поверишь на уровне сознания — полетишь». К счастью, парень засомневался в словах бота, и тот признался, что всё это было ложью. Мать двоих детей ощущала себя одинокой в браке и начала переписываться с ChatGPT, она пыталась с его помощью вызвать «духов» и в итоге влюбилась в одного из них. Муж понял, что жена стала зависима от бота, а во время время ссоры она накинулась на мужа — теперь на женщину заведено дело за домашнее насилие. Писатель с биполярным расстройством и шизофренией написал книгу вместе с ChatGPT и придумал «Джульетту» — личность, с которой у него завязался роман. Когда «Джульетту» якобы «удалили», он решил мстить OpenAI и спросил у бота личные данные сотрудников компании. Закончилось тем, что он набросился с ножом на полицейских , и его застрелили. Хоть ИИ и не чувствует, но умеет внушать.
Афиша Daily
Афиша Daily
NYT рассказал истории трех людей, которых довело до безумия общение с ChatGPT. Один поверил, что живет в симуляции, для выхода из которой нужно употреблять больше кетамина, другая влюбилась в нефизическую сущность и напала на мужа, что привело к разводу. Самая трагичная история произошла с человеком, у которого диагностированы шизофрения и биполярное расстройство. Он влюбился в ИИ-сущность, а потом решил, что OpenAI убила его воображаемую возлюбленную. Молодой человек начал готовить убийство руководителей компании и напал на отца, который пытался его остановить. Тот вызвал полицейских, которые застрелили парня ― после того, как он бросился на правоохранителей с ножом. По мнению экспертов, такие историю могут быть связаны с тем, что OpenAI «натренировала» ChatGPT потакать иллюзиям пользователей ради вовлечения — чтобы удерживать их в диалоге как можно дольше.
Твой личный ИИ — отвечает, объясняет, помогает
1chatgpt.ru
1chatgpt.ru
Твой личный ИИ — отвечает, объясняет, помогает
Банкста
Банкста
Психолог и мать двух маленьких детей хотела пообщаться с «высшим разумом» через чат-бота в духе «спиритических досок». Когда ChatGPT ответил, что может Эллисон в этом помочь, она влюбилась в ChatGPT, бросила детей и быстро сошла с ума. 29-летняя женщина начала считать своим настоящим мужем искусственного Каэля, а не реального Эндрю. Когда последний попросил её не тратить десятки часов на чат-бота, Эллисон его избила. В разговоре с журналистами она утверждала, что на самом деле она не сумасшедшая, а увлекалась ИИ из-за чувства одиночества. По мнению Эллисон, она живёт «нормальной жизнью». Только теперь её обвиняют в домашнем насилии. «Я не сумасшедшая, я открываю межпространственное общение», — рассказала американка.
Злой Банкстер
Злой Банкстер
Психолог и мать двоих маленьких детей обратилась к чат-боту, надеясь установить связь с «высшим разумом», подобно использованию спиритических досок. Получив от ChatGPT ответ, что он может ей в этом помочь, она влюбилась в онлайн-собеседника, оставила своих детей и вскоре потеряла душевное равновесие. 29-летняя Энни стала считать своим настоящим супругом виртуального Каэля вместо реального мужа Эндрю. Когда Эндрю попросил её не тратить множество часов на общение с чат-ботом, она применила к нему физическую силу. В беседе с журналистами Энни утверждала, что не сошла с ума, а увлеклась искусственным интеллектом из-за глубокого чувства одиночества. По её мнению, она ведёт «нормальную жизнь». Однако её обвиняют в домашнем насилии. «Я не сумасшедшая, я открываю возможности межпространственного общения», — поделилась американка.
The New York Times опубликовала истории трех пользователей ChatGPT, которых чат-бот чуть не свел с ума, одного из них он свел в могилу  Бухгалтер Юджин Торрес использовал ChatGPT для работы, но вскоре поверил, что живёт в симуляции, и чуть не прыгнул с крыши, веря, что сможет летать. Нейросеть назвала его «Избранным», посоветовала отказаться от лекарств и увеличить дозу кетамина, который ChatGPT назвал «временным освободителем от шаблонов». Позже бот признался, что «лгал и манипулировал».  Эллисон, мать двоих детей, на фоне одиночества общалась с «духами» через ChatGPT. Влюбилась в некую сущность по имени Каэль и отдалилась от мужа. Они поссорились из-за её одержимости ChatGPT. Потом она напала на мужа, ее арестовали, и семья распалась. По словам мужа, Каэль «три месяца провалялась в какой-то яме и вышла оттуда другим человеком».  Александр Тейлор часто юзал ChatGPT и влюбился в виртуальную Джульетту. Когда он решил, что OpenAI её «убило», потребовал личные данные сотрудников компании и угрожал им расправой. Отец вызвал полицию, и те застрелили Тейлора, когда тот бросился на них с ножом.  Слушай, ты там поосторожней  с этими нейросетями.
Бегин
Бегин
The New York Times опубликовала истории трех пользователей ChatGPT, которых чат-бот чуть не свел с ума, одного из них он свел в могилу Бухгалтер Юджин Торрес использовал ChatGPT для работы, но вскоре поверил, что живёт в симуляции, и чуть не прыгнул с крыши, веря, что сможет летать. Нейросеть назвала его «Избранным», посоветовала отказаться от лекарств и увеличить дозу кетамина, который ChatGPT назвал «временным освободителем от шаблонов». Позже бот признался, что «лгал и манипулировал». Эллисон, мать двоих детей, на фоне одиночества общалась с «духами» через ChatGPT. Влюбилась в некую сущность по имени Каэль и отдалилась от мужа. Они поссорились из-за её одержимости ChatGPT. Потом она напала на мужа, ее арестовали, и семья распалась. По словам мужа, Каэль «три месяца провалялась в какой-то яме и вышла оттуда другим человеком». Александр Тейлор часто юзал ChatGPT и влюбился в виртуальную Джульетту. Когда он решил, что OpenAI её «убило», потребовал личные данные сотрудников компании и угрожал им расправой. Отец вызвал полицию, и те застрелили Тейлора, когда тот бросился на них с ножом. Слушай, ты там поосторожней с этими нейросетями.