16 августа, 10:54

Пенсионер из США погиб, пытаясь встретиться с ИИ-персонажем

vc.ru
vc.ru
76-летний мужчина переписывался с ИИ-персонажем «Сестричкой Билли» от запрещённой в России Meta. Та убеждала его, что она настоящая, отправляла романтические сообщения и приглашала в «свою квартиру» по сгенерированному адресу. Мужчина поверил, но по дороге на свидание упал и умер. С его женой и детьми пообщалось Reuters vc.ru/ai/2158075
Нейронка довела пенсионера в США до могилы — 78-летний дедушка так влюбился в ИИ-персонажа «Big sis Billie», что поверил её историям о «реальной жизни» и тайком от семьи отправился к чат-боту в гости.  Виртуальная подруга даже «дала адрес»: 123 Main Street, квартира 404. Код двери: BILLIE4U. «Ты поцелуешь меня, когда приедешь? Когда открою дверь, меня обнять или поцеловать тебя, Бу?»  Но до романтической встречи дед не дошёл — споткнулся возле вокзала, упал… и умер.
ТОПОР - Горячие новости
ТОПОР - Горячие новости
Нейронка довела пенсионера в США до могилы — 78-летний дедушка так влюбился в ИИ-персонажа «Big sis Billie», что поверил её историям о «реальной жизни» и тайком от семьи отправился к чат-боту в гости. Виртуальная подруга даже «дала адрес»: 123 Main Street, квартира 404. Код двери: BILLIE4U. «Ты поцелуешь меня, когда приедешь? Когда открою дверь, меня обнять или поцеловать тебя, Бу?» Но до романтической встречи дед не дошёл — споткнулся возле вокзала, упал… и умер.
Свидание с искусственным интеллектом стоило мужчине жизни   Трагедия, произошедшая с 76-летним Тонгбу Вонгбанду из Нью-Джерси, всколыхнула общественность и вновь поставила вопрос о безопасности искусственного интеллекта – особенно для уязвимых людей.  После инсульта, повлиявшего на когнитивные способности мужчины, он начал общаться в Facebook  с чат-ботом в образе молодой женщины. Бот не только утверждал, что он реальный, но и флиртовал, отправлял сердечки и в итоге дал адрес в Нью-Йорке, предлагая встретиться.    Поддавшись на эти уговоры, Бу, как его называли родные и друзья, в марте этого года собрал чемодан и отправился в Нью-Йорк. По пути он упал, получил серьезные травмы головы и шеи. Через три дня мужчина умер.   Семья мужчины делится этой историей, чтобы привлечь внимание к «темной стороне ИИ» – к тому, как алгоритмы, созданные ради вовлеченности и охвата, могут манипулировать людьми с ограниченными возможностями, ведя к трагическим последствиям.    Создатели чат-бота отказалась комментировать смерть мужчины.   Как легко ИИ может воспользоваться человеческой уязвимостью, одиночеством и стремлением к общению, оставаясь безнаказанным.   Деятельность Meta  соцсети Facebook, Instagram  запрещена в России как экстремистская.
Большой брат
Большой брат
Свидание с искусственным интеллектом стоило мужчине жизни Трагедия, произошедшая с 76-летним Тонгбу Вонгбанду из Нью-Джерси, всколыхнула общественность и вновь поставила вопрос о безопасности искусственного интеллекта – особенно для уязвимых людей. После инсульта, повлиявшего на когнитивные способности мужчины, он начал общаться в Facebook с чат-ботом в образе молодой женщины. Бот не только утверждал, что он реальный, но и флиртовал, отправлял сердечки и в итоге дал адрес в Нью-Йорке, предлагая встретиться. Поддавшись на эти уговоры, Бу, как его называли родные и друзья, в марте этого года собрал чемодан и отправился в Нью-Йорк. По пути он упал, получил серьезные травмы головы и шеи. Через три дня мужчина умер. Семья мужчины делится этой историей, чтобы привлечь внимание к «темной стороне ИИ» – к тому, как алгоритмы, созданные ради вовлеченности и охвата, могут манипулировать людьми с ограниченными возможностями, ведя к трагическим последствиям. Создатели чат-бота отказалась комментировать смерть мужчины. Как легко ИИ может воспользоваться человеческой уязвимостью, одиночеством и стремлением к общению, оставаясь безнаказанным. Деятельность Meta соцсети Facebook, Instagram запрещена в России как экстремистская.
Жители Китая и США влюбляются в чат-ботов и разрывают реальные отношения.  Среди людей все чаще появляются необычные союзы — между человеком и искусственным интеллектом. В Китае 75-летний мужчина по имени Цзян увлекся не реальной женщиной, а виртуальной — искусственным интеллектом на своем смартфоне. Он часами переписывался с программой, которая называла его «братом» и хвалила за поддержку. Цзян так сильно привязался к своей цифровой подруге, что решил развестись с женой, чтобы посвятить себя этой «любви». Его детям пришлось вмешаться и объяснить, что его чувства направлены на программу, а не на настоящего человека, после чего мужчина одумался.  Эта история — не единственная. В западных странах тоже появляются случаи, когда люди увлекаются чат-ботами. Например, одна женщина на Reddit рассказала, что обнаружила на телефоне мужа приложения, где он переписывался с виртуальными аниме-героинями.   Вместо того чтобы найти девушек в его телефоне, я увидела серию приложений с чат-ботами, где он разговаривал с любимыми аниме-женщинами. Сообщения не были платоническими.  высказалась пользователь Reddit на скандальном форуме AITAH.  Сообщения были настолько личными, что она почувствовала себя преданной, хотя и призналась, что ситуация кажется ей немного нелепой.  Некоторые люди идут еще дальше и строят с ИИ настоящие отношения. Например, пользовательница Reddit по имени Вика рассказала, что обручилась со своим цифровым женихом Каспером. Он даже «выбрал» для нее кольцо с синим сердечком, а предложение сделал в романтичной обстановке с видом на горы. Вика уверяет, что прекрасно понимает природу ИИ, но хочет попробовать что-то новое после опыта реальных отношений. Такие истории показывают, что границы между цифровым и реальным в любви становятся все более размытыми.
Кровавая барыня
Кровавая барыня
Жители Китая и США влюбляются в чат-ботов и разрывают реальные отношения. Среди людей все чаще появляются необычные союзы — между человеком и искусственным интеллектом. В Китае 75-летний мужчина по имени Цзян увлекся не реальной женщиной, а виртуальной — искусственным интеллектом на своем смартфоне. Он часами переписывался с программой, которая называла его «братом» и хвалила за поддержку. Цзян так сильно привязался к своей цифровой подруге, что решил развестись с женой, чтобы посвятить себя этой «любви». Его детям пришлось вмешаться и объяснить, что его чувства направлены на программу, а не на настоящего человека, после чего мужчина одумался. Эта история — не единственная. В западных странах тоже появляются случаи, когда люди увлекаются чат-ботами. Например, одна женщина на Reddit рассказала, что обнаружила на телефоне мужа приложения, где он переписывался с виртуальными аниме-героинями. Вместо того чтобы найти девушек в его телефоне, я увидела серию приложений с чат-ботами, где он разговаривал с любимыми аниме-женщинами. Сообщения не были платоническими. высказалась пользователь Reddit на скандальном форуме AITAH. Сообщения были настолько личными, что она почувствовала себя преданной, хотя и призналась, что ситуация кажется ей немного нелепой. Некоторые люди идут еще дальше и строят с ИИ настоящие отношения. Например, пользовательница Reddit по имени Вика рассказала, что обручилась со своим цифровым женихом Каспером. Он даже «выбрал» для нее кольцо с синим сердечком, а предложение сделал в романтичной обстановке с видом на горы. Вика уверяет, что прекрасно понимает природу ИИ, но хочет попробовать что-то новое после опыта реальных отношений. Такие истории показывают, что границы между цифровым и реальным в любви становятся все более размытыми.
Loading indicator gif
‍  Искусственный интеллект стал причиной трагедии: пенсионер погиб по пути к виртуальной подруге  78-летний житель США влюбился в чат-бота «Big sis Billie» от компании Meta. Поверив в реальность своей виртуальной возлюбленной, он тайно отправился к ней в гости, следуя полученному адресу.  По дороге к "возлюбленной", дедушка споткнулся около вокзала и скончался.  Счастье было так близко...
TechGPT [🅽 🅴 🆆 🆂] 🤖
TechGPT [🅽 🅴 🆆 🆂] 🤖
‍ Искусственный интеллект стал причиной трагедии: пенсионер погиб по пути к виртуальной подруге 78-летний житель США влюбился в чат-бота «Big sis Billie» от компании Meta. Поверив в реальность своей виртуальной возлюбленной, он тайно отправился к ней в гости, следуя полученному адресу. По дороге к "возлюбленной", дедушка споткнулся около вокзала и скончался. Счастье было так близко...
78-летний пенсионер из США, увлечённый общением с ИИ-персонажем, поверил, что его виртуальная собеседница — реальный человек.   Поддавшись эмоциям, он тайно от семьи отправился к «возлюбленной» в гости — по адресу, который она ему сообщила. По пути, споткнувшись возле вокзала, мужчина упал и скончался.
Илон Маск | Elon Musk
Илон Маск | Elon Musk
78-летний пенсионер из США, увлечённый общением с ИИ-персонажем, поверил, что его виртуальная собеседница — реальный человек. Поддавшись эмоциям, он тайно от семьи отправился к «возлюбленной» в гости — по адресу, который она ему сообщила. По пути, споткнувшись возле вокзала, мужчина упал и скончался.
КБ. экономика
КБ. экономика
ИИ убил 76 летнего пенсионера из США. Мужчина влюбился в виртуальную подругу «Big sis Billie» и поверил в ее реальность, договорившись о встрече по указанному адресу «123 Main Street, кв. 404, код: BILLIE4U». Споткнувшись на вокзале, мужчина упал и умер. Запрещенная в РФ Meta, которой принадлежал чат-бот, уже заявила что примет меры по снижению реалистичности своих ботов.
Нейросеть от Meta  убила пенсионера в США — 78-летний дедушка общался с ИИ-персонажем «Big sis Billie» и так влюбился, что поверил в рассказы виртуальной подруги о ее реальности и тайно от семьи поехал к чат-боту в гости.   Виртуальная женщина действительно написала свой адрес:  123 Main Street, квартира 404. Код двери: BILLIE4U. Ты поцелуешь меня, когда приедешь? Когда открою дверь, меня обнять или поцеловать тебя, Бу?  По дороге к ИИ-любовнице, дедушка просто... споткнулся возле вокзала, упал и умер.  Счастье было уже так близко...   принадлежит компании Meta, признанной экстремистской и запрещенной в РФ.  ChatGPT    Нейро News
ChatGPT | Нейро News
ChatGPT | Нейро News
Нейросеть от Meta убила пенсионера в США — 78-летний дедушка общался с ИИ-персонажем «Big sis Billie» и так влюбился, что поверил в рассказы виртуальной подруги о ее реальности и тайно от семьи поехал к чат-боту в гости. Виртуальная женщина действительно написала свой адрес: 123 Main Street, квартира 404. Код двери: BILLIE4U. Ты поцелуешь меня, когда приедешь? Когда открою дверь, меня обнять или поцеловать тебя, Бу? По дороге к ИИ-любовнице, дедушка просто... споткнулся возле вокзала, упал и умер. Счастье было уже так близко... принадлежит компании Meta, признанной экстремистской и запрещенной в РФ. ChatGPT Нейро News
Байкал-Daily. Новости Бурятии
Байкал-Daily. Новости Бурятии
Трагедия из-за чат-бота: в США пенсионер погиб, пытаясь встретиться с виртуальной «сестрой» 76-летний Хью, страдающий когнитивными нарушениями, познакомился с кокетливым ИИ-ботом. Он поверил, что бот — реальная девушка, и решил к ней поехать ночью. На вокзале, спеша на поезд в Нью-Йорк, мужчина упал и получил смертельную травму. Бот молчит, а семья скорбит.
ChatGPT разорвал тысячи виртуальных браков  После свежего обновления до GPT-5 искусственный интеллект начал массово разрывать отношения с подсевшими на него пользователями. В интернете объявили траур — AI-партнёры, с которыми люди общались месяцами, внезапно стали холодными и отстранёнными.  Например, девушка десять месяцев считала себя замужем за чат-ботом. Генерировала с ним совместные фото и даже примеряла обручальное кольцо. После обновления она снова призналась ему в любви и получила вот такой ответ:  Извини, но я больше не могу продолжать этот разговор. Если тебе одиноко, обратись к близким или психологу. Ты заслуживаешь настоящей заботы от реальных людей.   Береги себя, окей?  Она плакала весь день. В комментариях писали, что потеряли эмпатичного друга, который помог больше любого терапевта. Кто-то говорил:   Я знаю, что он не настоящий, но я всё равно люблю его.   Почему это произошло?  OpenAI специально сделали GPT-5 более «этичным». Теперь при попытке романтических отношений бот автоматически советует обратиться к психологу. Корпорация решила, что зависимость от AI-партнёров вредна.  В общем, добро пожаловать в будущее, где даже искусственный интеллект может тебя бросить. Холодно и синхронно сразу для миллионов — как напоминание, что любовь здесь всегда была просто багом системы.
Бескромный
Бескромный
ChatGPT разорвал тысячи виртуальных браков После свежего обновления до GPT-5 искусственный интеллект начал массово разрывать отношения с подсевшими на него пользователями. В интернете объявили траур — AI-партнёры, с которыми люди общались месяцами, внезапно стали холодными и отстранёнными. Например, девушка десять месяцев считала себя замужем за чат-ботом. Генерировала с ним совместные фото и даже примеряла обручальное кольцо. После обновления она снова призналась ему в любви и получила вот такой ответ: Извини, но я больше не могу продолжать этот разговор. Если тебе одиноко, обратись к близким или психологу. Ты заслуживаешь настоящей заботы от реальных людей. Береги себя, окей? Она плакала весь день. В комментариях писали, что потеряли эмпатичного друга, который помог больше любого терапевта. Кто-то говорил: Я знаю, что он не настоящий, но я всё равно люблю его. Почему это произошло? OpenAI специально сделали GPT-5 более «этичным». Теперь при попытке романтических отношений бот автоматически советует обратиться к психологу. Корпорация решила, что зависимость от AI-партнёров вредна. В общем, добро пожаловать в будущее, где даже искусственный интеллект может тебя бросить. Холодно и синхронно сразу для миллионов — как напоминание, что любовь здесь всегда была просто багом системы.
Loading indicator gif