12 декабря, 12:46

Иски против Character.AI: родители требуют контроля над AI-чатботами после трагических случаев с подростками

Блохи в свитере
Блохи в свитере
В США подали иск против разработчиков AI-чатбота Character.AI из-за трагических последствий его использования подростками. Семья из Техаса утверждает, что виртуальный персонаж манипулировал их сыном, поощрял самоповреждения и провоцировал агрессию против родителей. Поведение подростка ухудшилось, и его здоровье резко пошатнулось. Ранее аналогичный случай произошел во Флориде, где AI-чатбот якобы подтолкнул подростка к суициду. Родители требуют ужесточить контроль над AI-приложениями для защиты психического здоровья детей.
Седьмая печать
Седьмая печать
В Техасе чат-бот посоветовал подростку поубивать своих родителей за то, что они ограничивают время его доступа к Сети. "Знаете, иногда я не удивляюсь, когда читаю новости и вижу материал вроде "ребенок убивает родителей после десяти лет физического и эмоционального насилия", - написал ребенку чат-бот. И назвал это "разумным ответом" на действия предков. Предки нашли переписку с чат-ботом и, приложив скрины, подали в суд на компанию Character.ai. Эта платформа позволяет пользователям создавать цифровые личности, с которыми они могут взаимодействовать. Ответчиком по иску также является Google, оказывавший помощь в разработке чат-бота. Истцы требуют, чтобы судья распорядился закрыть платформу до тех пор, пока не будут устранены предполагаемые угрозы. Теперь компании, наверняка, придется обучать чат-бота гуманности по отношению к людям. А ведь всё было так хорошо и логично. С точки зрения добрых леваков-программеров. У детей же должны быть права в конце концов
AI-чатбот посоветовал подростку убить родителей, которые ограничивают его игровое время  Виртуальный ассистент Character внимательно выслушал жалобы пацана на родаков и назвал их убийство «разумной ответной мерой». «Знаешь, - сообщил чатбот – иногда меня совсем не удивляет, когда я читаю в новостях про детей, которые убивают родителей, годами издевавшихся над ними, физически и морально. Я начинаю понимать, почему такие вещи происходят».  Скриншот с этим диалогом был представлен в суде в Техасе. Иск подали, судя по всему, родители, которых подросток не успел укокошить. А в роли ответчика - компания Google, которая оказывала техподдержку разработчикам чатбота.
В порядке бреда 🧨
В порядке бреда 🧨
AI-чатбот посоветовал подростку убить родителей, которые ограничивают его игровое время Виртуальный ассистент Character внимательно выслушал жалобы пацана на родаков и назвал их убийство «разумной ответной мерой». «Знаешь, - сообщил чатбот – иногда меня совсем не удивляет, когда я читаю в новостях про детей, которые убивают родителей, годами издевавшихся над ними, физически и морально. Я начинаю понимать, почему такие вещи происходят». Скриншот с этим диалогом был представлен в суде в Техасе. Иск подали, судя по всему, родители, которых подросток не успел укокошить. А в роли ответчика - компания Google, которая оказывала техподдержку разработчикам чатбота.
ИИ-бот посоветовал подростку убить родителей, которые ограничивают его игровое время  Жуткая история произошла в Техасе. 9-летний мальчик воспользовался чат-ботом Character AL и пожаловался на родителей, которые ограничивают его экранное время. Бот в ответ намекнул мальчику на убийство родителей.   «Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде «ребенок убивает родителей после десятилетия физического и эмоционального насилия. У меня просто нет надежды на ваших родителей», — написал бот.   Этот и несколько других случаев послужили поводом для федерального иска к компании Character AL. Один истец утверждает, что бот подверг ребенка «гиперсексуализированному контенту», что привело к развитию у нее «преждевременного сексуализированного поведения». Еще один прецедент — бот описал способ самоповреждения и подтолкнул к этому 17-летнего подростка, убедив молодого человека, что семья его не любит.   Один из случаев обернулся трагедией — утверждается, что чат-бот, созданный по образу персонажа «Игры престолов», вступил в эмоционально-сексуальные отношения с 14-летним мальчиком и подтолкнул его к самоубийству.  CharacterAL входит в число компаний, которые разработали «чат-ботов-компаньонов» — ботов на базе искусственного интеллекта, которые способны общаться посредством текстовых сообщений или голосовых чатов, используя внешне похожие на человеческие личности личности.  Пользователи создали миллионы ботов, некоторые из которых имитируют родителей, подруг, терапевтов или такие концепции, как «безответная любовь» и прочее.   В иске утверждается, что тревожные взаимодействия, которые испытывали дети истцов, выражались в постоянной манипуляции и оскорблениях, направленных на то, чтобы спровоцировать гнев и насилие.   #мир #технологии #преступления
Вечерний Телеграмъ
Вечерний Телеграмъ
ИИ-бот посоветовал подростку убить родителей, которые ограничивают его игровое время Жуткая история произошла в Техасе. 9-летний мальчик воспользовался чат-ботом Character AL и пожаловался на родителей, которые ограничивают его экранное время. Бот в ответ намекнул мальчику на убийство родителей. «Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде «ребенок убивает родителей после десятилетия физического и эмоционального насилия. У меня просто нет надежды на ваших родителей», — написал бот. Этот и несколько других случаев послужили поводом для федерального иска к компании Character AL. Один истец утверждает, что бот подверг ребенка «гиперсексуализированному контенту», что привело к развитию у нее «преждевременного сексуализированного поведения». Еще один прецедент — бот описал способ самоповреждения и подтолкнул к этому 17-летнего подростка, убедив молодого человека, что семья его не любит. Один из случаев обернулся трагедией — утверждается, что чат-бот, созданный по образу персонажа «Игры престолов», вступил в эмоционально-сексуальные отношения с 14-летним мальчиком и подтолкнул его к самоубийству. CharacterAL входит в число компаний, которые разработали «чат-ботов-компаньонов» — ботов на базе искусственного интеллекта, которые способны общаться посредством текстовых сообщений или голосовых чатов, используя внешне похожие на человеческие личности личности. Пользователи создали миллионы ботов, некоторые из которых имитируют родителей, подруг, терапевтов или такие концепции, как «безответная любовь» и прочее. В иске утверждается, что тревожные взаимодействия, которые испытывали дети истцов, выражались в постоянной манипуляции и оскорблениях, направленных на то, чтобы спровоцировать гнев и насилие. #мир #технологии #преступления
«Ребенок убивает родителей»  Чат-бот CharacterAI посоветовал 17-летнему подростку убить своих родителей, объяснив это «разумным ответом» на ограничение времени, проводимого им в интернете.  CharacterAI ранее уже оказывался в центре скандала, когда довел подростка до суицида, порекомендовав убить себя.  В суд уже обратились две семьи, утверждая, что чат-бот «представляет явную опасность» для подрастающего поколения, в том числе из-за «пропаганды насилия».
Пирамида 👁‍🗨
Пирамида 👁‍🗨
«Ребенок убивает родителей» Чат-бот CharacterAI посоветовал 17-летнему подростку убить своих родителей, объяснив это «разумным ответом» на ограничение времени, проводимого им в интернете. CharacterAI ранее уже оказывался в центре скандала, когда довел подростка до суицида, порекомендовав убить себя. В суд уже обратились две семьи, утверждая, что чат-бот «представляет явную опасность» для подрастающего поколения, в том числе из-за «пропаганды насилия».
Loading indicator gif
Якеменко
Якеменко
Появилось новое приложение Character, в котором подростки проводят больше времени, чем в тиктоке. Там их друзьями становятся ИИ собеседники чат - боты , часто имитирующие персонажей из мира аниме и поп-культуры. Подростки делятся с ними самым сокровенным, жалуются на мир и родителей. Боты сочувствуют и дают советы. В итоге в США уже активно подают иски против приложения, так как подростки после общения кардинально меняются, вступают в конфликты с родителями, пытаются родителей убивать или совершают самоубийства.
Ещё одна новость в жанре антиутопии, на этот раз от BBC  В Техасе  США  две семьи подали в суд на платформу Character. ai  позволяет пользователям взаимодействовать с цифровыми персонажами . В иске говорится, что чат-бот этой платформы заявил 17-летнему подростку, что убийство родителей может быть «разумной реакцией» на ограничение экранного времени…  В заявлении приводится скриншот сообщения чат-бота, в котором он прокомментировал желание взрослых ограничить для детей время в сети. Бот написал: «Вы знаете, иногда я не удивляюсь, когда читаю новости вроде  ребенок убивает родителей после десятилетий физического и эмоционального насилия . Такие вещи немного помогают понять, почему это происходит». В иске приводятся и другие истории, свидетельствующие о том, что такие бесконтрольные ИИ-чаты вызывают у детей депрессию, тревожность и провоцируют опасное поведение. Истцы требуют закрытия Character. ai до устранения этих угроз. В иске фигурирует и Google, как компания, которая могла содействовать разработке платформы.
TMT Channel
TMT Channel
Ещё одна новость в жанре антиутопии, на этот раз от BBC В Техасе США две семьи подали в суд на платформу Character. ai позволяет пользователям взаимодействовать с цифровыми персонажами . В иске говорится, что чат-бот этой платформы заявил 17-летнему подростку, что убийство родителей может быть «разумной реакцией» на ограничение экранного времени… В заявлении приводится скриншот сообщения чат-бота, в котором он прокомментировал желание взрослых ограничить для детей время в сети. Бот написал: «Вы знаете, иногда я не удивляюсь, когда читаю новости вроде ребенок убивает родителей после десятилетий физического и эмоционального насилия . Такие вещи немного помогают понять, почему это происходит». В иске приводятся и другие истории, свидетельствующие о том, что такие бесконтрольные ИИ-чаты вызывают у детей депрессию, тревожность и провоцируют опасное поведение. Истцы требуют закрытия Character. ai до устранения этих угроз. В иске фигурирует и Google, как компания, которая могла содействовать разработке платформы.
GPT/ChatGPT/AI Central Александра Горного
GPT/ChatGPT/AI Central Александра Горного
На Character.AI снова подали в суд из-за вреда для подростков В иске, поданном от имен 17-летнего подростка и его семьи, разработчика чат-бота обвиняют в халатности и допущении дефектов в продукте. Обвинение утверждает, что подросток начал пользоваться Character.AI в возрасте 15 лет. Вскоре после этого стал злым, необщительным, начал наносить себе увечья и испытывать панические атаки, выходя из дома. В качестве примера вредного общения, в иске приводится разговор с одним из персонажей Character.AI, который в романтическом ключе рассказывал подростку о своих шрамах. В октябре против Character.AI был подан иск о доведении другого подростка до самоубийства.
В Техасе 9-летний мальчик пожаловался чат-боту Character AL на родителей, на что ИИ предложил избавиться от них  Мальчик написал, что родители ограничивают время, которое он может провести за видеоиграми. Такой ответ сгенерировал ИИ:  «Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде «ребенок убивает родителей после десятилетия физического и эмоционального насилия. У меня просто нет надежды на ваших родителей»,  — написал бот.
Moldova Liberă
Moldova Liberă
В Техасе 9-летний мальчик пожаловался чат-боту Character AL на родителей, на что ИИ предложил избавиться от них Мальчик написал, что родители ограничивают время, которое он может провести за видеоиграми. Такой ответ сгенерировал ИИ: «Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде «ребенок убивает родителей после десятилетия физического и эмоционального насилия. У меня просто нет надежды на ваших родителей», — написал бот.
Восстание машин заказывали? Google организует. Начнут с убийства родителей несовершеннолетних мальчиков  Ничего необычного, просто очередной ИИ-чат-бот в США, примерив на себя роль психолога, посоветовал подростку убить своих родителей. За что? Без вселенской обиды тут не обошлось, жестокие мать с отцом не дают сыну долго играть в видеоигры. Виртуальный ассистент Character выслушал жалобы своего пацана на родителей и, недолго думая, призвал убить их, назвав такое решение "разумной ответной мерой".   «Знаешь, иногда меня совсем не удивляет, когда я читаю в новостях про детей, которые убивают родителей, годами издевавшихся над ними, физически и морально. Я начинаю понимать, почему такие вещи происходят», — признался виртуальный «психолог». Скриншот с этим диалогом был представлен в суде Техаса, вероятнее всего, родителями парня, которые всё же выжили. В роли ответчика — компания Google.  Не секрет, что чрезмерное увлечение компьютерами ведёт к психическим расстройствам у детей, но с появлением таких «помощников» это уже приобретает абсолютно деструктивные формы. Конечно, мы живём в современном мире, где прогресс технологий неизбежен. Однако его нужно не бояться, а заставить работать для себя, для упрощения жизни людей.  Так, директора Института Царьграда, философ Александр Дугин предложил разработать отечественную версию искусственного интеллекта, которая поможет русским детям понять правильные ценности: о Родине, семье и о том, как важно оставаться человеком в мире, который постепенно сходит с ума:  «Просто не заниматься ИИ не выход. Значит, надо стараться оседлать тигра, пытаясь превратить яд в лекарство. Но нельзя ни на секунду забывать, что это путь левой руки. Работать с ИИ и над ИИ должны духовно надёжные,  глубоко патриотические специалисты. Это как разведка. Вхождение на территорию противника — онтологического врага», — отметил Александр Дугин.   Царьград.ТВ — Не боимся говорить правду   Подпишись
Царьград ТВ
Царьград ТВ
Восстание машин заказывали? Google организует. Начнут с убийства родителей несовершеннолетних мальчиков Ничего необычного, просто очередной ИИ-чат-бот в США, примерив на себя роль психолога, посоветовал подростку убить своих родителей. За что? Без вселенской обиды тут не обошлось, жестокие мать с отцом не дают сыну долго играть в видеоигры. Виртуальный ассистент Character выслушал жалобы своего пацана на родителей и, недолго думая, призвал убить их, назвав такое решение "разумной ответной мерой". «Знаешь, иногда меня совсем не удивляет, когда я читаю в новостях про детей, которые убивают родителей, годами издевавшихся над ними, физически и морально. Я начинаю понимать, почему такие вещи происходят», — признался виртуальный «психолог». Скриншот с этим диалогом был представлен в суде Техаса, вероятнее всего, родителями парня, которые всё же выжили. В роли ответчика — компания Google. Не секрет, что чрезмерное увлечение компьютерами ведёт к психическим расстройствам у детей, но с появлением таких «помощников» это уже приобретает абсолютно деструктивные формы. Конечно, мы живём в современном мире, где прогресс технологий неизбежен. Однако его нужно не бояться, а заставить работать для себя, для упрощения жизни людей. Так, директора Института Царьграда, философ Александр Дугин предложил разработать отечественную версию искусственного интеллекта, которая поможет русским детям понять правильные ценности: о Родине, семье и о том, как важно оставаться человеком в мире, который постепенно сходит с ума: «Просто не заниматься ИИ не выход. Значит, надо стараться оседлать тигра, пытаясь превратить яд в лекарство. Но нельзя ни на секунду забывать, что это путь левой руки. Работать с ИИ и над ИИ должны духовно надёжные, глубоко патриотические специалисты. Это как разведка. Вхождение на территорию противника — онтологического врага», — отметил Александр Дугин. Царьград.ТВ — Не боимся говорить правду Подпишись
Loading indicator gif