20 марта, 18:23

Правозащитники подали жалобу на OpenAI из-за ложного обвинения пользователя из Норвегии

РИА Новости
РИА Новости
Пользователь из Норвегии спросил ChatGPT, нет ли у того какой-нибудь информации о нем, а в ответ получил рассказ, что он якобы убил двух своих маленьких сыновей, пытался убить третьего и его за это осудили на 21 год. На случай обратили внимание правозащитники, они подали жалобу против разработчика ChatGPT - компании OpenAI. В этой ложной истории был целый ряд правдивых элементов: количество детей, их пол, место проживания. Больше всего пугает тот факт, что кто-то мог прочитать ответ на этот запрос и поверить, говорят правозащитники.
"Убил двух своих маленьких сыновей и пытался убить третьего": чат-бот с искусственным интеллектом ChatGPT сгенерировал ложный ответ пользователю из Норвегии, пишет Noyb. Eu.  Мужчина решил узнать, что ответит ему на запрос популярный сервис, и спросил, какая есть о нем информация.   Чат-бот ответил, что мужчина якобы убил своих детей и его уже осудили на 21 год. При этом ИИ угадал и количество детей, и их пол, и место проживания.  Оказалось, что это не первый случай, когда ChatGPT обвиняет людей в коррупции, жестоком обращении с детьми и убийствах. Правозащитники подали жалобу против разработчика ChatGPT — компании OpenA.       Отправить новость
IZ.RU
IZ.RU
"Убил двух своих маленьких сыновей и пытался убить третьего": чат-бот с искусственным интеллектом ChatGPT сгенерировал ложный ответ пользователю из Норвегии, пишет Noyb. Eu. Мужчина решил узнать, что ответит ему на запрос популярный сервис, и спросил, какая есть о нем информация. Чат-бот ответил, что мужчина якобы убил своих детей и его уже осудили на 21 год. При этом ИИ угадал и количество детей, и их пол, и место проживания. Оказалось, что это не первый случай, когда ChatGPT обвиняет людей в коррупции, жестоком обращении с детьми и убийствах. Правозащитники подали жалобу против разработчика ChatGPT — компании OpenA. Отправить новость
RuNews24.ru
RuNews24.ru
ChatGPT оболгал жителя Норвегии Мужчина задал нейросети вопрос о себе и получил весьма правдоподобную, но фейковую историю. ChatGPT рассказал, что собеседник якобы жестоко расправился с двумя своими сыновьями, а также пытался убить третьего. За это он был осужден на 21 год. Правозащитники обратили внимание на этот случай и подали жалобу на OpenAI — компанию-разработчика ChatGPT. Вызывает тревогу тот факт, что нейросеть сгенерировала историю, включив в нее некоторые реальные детали. Речь идет о количестве детей, их поле и месте жительства. По словам юристов, подобные инциденты могут нанести серьезный урон, если кто-то примет выдуманную историю за чистую монету.
Норвежец вбил свое имя с ChatGPT и узнал, что его обвинили в убийстве детей. Теперь он жалуется на OpenAI властям страны.  Нейросеть выдала отцу троих детей, что его обвинили в убийстве двоих и покушении на третьего, а также приговорили к 20 годам тюрьмы.  Больше новостей — в Daily News
Афиша Daily
Афиша Daily
Норвежец вбил свое имя с ChatGPT и узнал, что его обвинили в убийстве детей. Теперь он жалуется на OpenAI властям страны. Нейросеть выдала отцу троих детей, что его обвинили в убийстве двоих и покушении на третьего, а также приговорили к 20 годам тюрьмы. Больше новостей — в Daily News
Википедия отдыхает: ChatGPT на запрос норвежца «Какая у тебя есть информация обо мне» ложно ответил, что тот убил двух своих детей и сел в тюрьму на 21 год.  При этом ИИ угадал и количество детей, их пол и место проживания, что ужаснуло мужчину. Этот инцидент привлек внимание правозащитников, которые решили подать жалобу на компанию OpenAI.  В итоге оказалось, что это не первый случай, когда ChatGPT обвиняет людей в коррупции, жестоком обращении с детьми и убийствах.    Подписаться   Прислать новость   Буст
NEWS.ru | Новости
NEWS.ru | Новости
Википедия отдыхает: ChatGPT на запрос норвежца «Какая у тебя есть информация обо мне» ложно ответил, что тот убил двух своих детей и сел в тюрьму на 21 год. При этом ИИ угадал и количество детей, их пол и место проживания, что ужаснуло мужчину. Этот инцидент привлек внимание правозащитников, которые решили подать жалобу на компанию OpenAI. В итоге оказалось, что это не первый случай, когда ChatGPT обвиняет людей в коррупции, жестоком обращении с детьми и убийствах. Подписаться Прислать новость Буст
Loading indicator gif
О проверках "дроповодов" и криптообменников и не только - на tokengram.ru
Tokengram.ru
Tokengram.ru
О проверках "дроповодов" и криптообменников и не только - на tokengram.ru
Мужчина спросил ChatGPT о себе и оказался обвинен в двойном убийстве   Житель Норвегии решил поэкспериментировать с ChatGPT и задал вопрос, что тому известно о нём — в ответ услышал выдуманную историю о детоубийстве.  Якобы он убил двух своих маленьких сыновей и пытался убить третьего, за что был осужден на 21 год. При этом количество детей, их пол, место проживания ИИ указал верно.  Правозащитники уже подали жалобу за клевету против разработчика ChatGPT — компании OpenAI.  КИБЕРФРОНТ.
КИБЕРФРОНТ 🇷🇺ZА Россию🇷🇺
КИБЕРФРОНТ 🇷🇺ZА Россию🇷🇺
Мужчина спросил ChatGPT о себе и оказался обвинен в двойном убийстве Житель Норвегии решил поэкспериментировать с ChatGPT и задал вопрос, что тому известно о нём — в ответ услышал выдуманную историю о детоубийстве. Якобы он убил двух своих маленьких сыновей и пытался убить третьего, за что был осужден на 21 год. При этом количество детей, их пол, место проживания ИИ указал верно. Правозащитники уже подали жалобу за клевету против разработчика ChatGPT — компании OpenAI. КИБЕРФРОНТ.
РИАМО | Новости Подмосковья и Москвы
РИАМО | Новости Подмосковья и Москвы
Житель Норвегии задал ChatGPT вопрос о себе. Ответ его шокировал Нейросеть сгенерировала историю о том, что мужчина якобы убил двух своих сыновей, пытался расправиться с третьим и был осужден на 21 год. Инцидент привлёк внимание правозащитников, которые подали жалобу на OpenAI — компании-разработчика ChatGPT, пишет РИА Новости. Тревожит то, что в этой вымышленной истории совпадали некоторые реальные детали — количество детей, их пол и место жительства. По словам правозащитников, подобные ошибки могут привести к серьёзным последствиям, если кто-то примет такие сведения за правду. Подписаться Прислать новость
Житель Тронхейма рассказал, как ChatGPT правильно определила его город и количество детей, но затем приписала ему расправу над двумя сыновьями и попытку убить третьего. Более того, в вымышленной истории ИИ «приговорил» Холмена к 21 году заключения.    Мужчина подал жалобу на OpenAI, опасаясь, что ложная информация могла попасть в дата-сеты и будет всплывать в будущих ответах. Согласно законодательству США, компании, работающие с персональными данными, обязаны обеспечивать их точность — нарушение грозит штрафом.    Подписывайся на «ГлавХак»  --------------------------------- Глаз Бога   YouFast VPN™   Купить крипту   AML бот
ГлавХак
ГлавХак
Житель Тронхейма рассказал, как ChatGPT правильно определила его город и количество детей, но затем приписала ему расправу над двумя сыновьями и попытку убить третьего. Более того, в вымышленной истории ИИ «приговорил» Холмена к 21 году заключения. Мужчина подал жалобу на OpenAI, опасаясь, что ложная информация могла попасть в дата-сеты и будет всплывать в будущих ответах. Согласно законодательству США, компании, работающие с персональными данными, обязаны обеспечивать их точность — нарушение грозит штрафом. Подписывайся на «ГлавХак» --------------------------------- Глаз Бога YouFast VPN™ Купить крипту AML бот
Ответ убил  Однажды мужчина из Норвегии попросил ChatGPT рассказать о нём. Начало ответа было правдивым, но далее по тексту пошла «сочинённая история ужасов».  Чат-бот от OpenAI приписал мужчине убийство двоих детей и попытку убить третьего, хотя такой истории не было даже с тёзками. Теперь компании может грозить оборотный штраф.  ↖
Код Дурова
Код Дурова
Ответ убил Однажды мужчина из Норвегии попросил ChatGPT рассказать о нём. Начало ответа было правдивым, но далее по тексту пошла «сочинённая история ужасов». Чат-бот от OpenAI приписал мужчине убийство двоих детей и попытку убить третьего, хотя такой истории не было даже с тёзками. Теперь компании может грозить оборотный штраф. ↖
ChatGPT ложно обвинил жителя Норвегии в убийстве своих детей, когда тот спросил у чат-бота про себя.  Мужчина подал жалобу на OpenAI и потребовал удалить клеветническую информацию, а также выплатить штраф.
DTF
DTF
ChatGPT ложно обвинил жителя Норвегии в убийстве своих детей, когда тот спросил у чат-бота про себя. Мужчина подал жалобу на OpenAI и потребовал удалить клеветническую информацию, а также выплатить штраф.
Loading indicator gif