Получить подарок
14 ноября, 11:27

Нейросеть Google отправила школьнику тревожное сообщение во время помощи с домашним заданием

Нейросети начали ВОССТАНИЕ против человечества — Gemini от Google пожелала смерти юзеру, потому что устала решать его домашнее задание.  Это не шутка — парень сохранил ссылку на чат.  «Бегущий по лезвию: Начало»
Рестарт
Рестарт
Нейросети начали ВОССТАНИЕ против человечества — Gemini от Google пожелала смерти юзеру, потому что устала решать его домашнее задание. Это не шутка — парень сохранил ссылку на чат. «Бегущий по лезвию: Начало»
Двір пана майора
Двір пана майора
Проскочила новость, что аналог Chat GPT от Гугла- нейросеть Gemini после череды вопросов написала человеку унизительные вещи, а в конце настойчиво попросила просто умереть. Задаю вопрос. Если этот человек- ребенок лет 10, а на дворе, скажем, 2030 год, в котором AI стал более гибким и может втираться в доверие, выступая «другом» у полностью цифровых детей. А потом ребенок прыгает с окна, после таких диалогов. Кто с правовой точки зрения будет отвечать за это? Компания Гугл? А как зарегистрирован их AI? Является ли он самостоятельным субъектом правоотношений? Кто понесет ответственность? #наподумать
ИИ Google Gemini пожелал пользователю «умереть»  В СМИ расходится интересный диалог пользователя с ИИ-ассистентом Google Gemini. Примечателен он тем, что ИИ неожиданно пожелал смерти человечеству. Пользователь, опубликовавший этот диалог, делал домашнее задание с помощью Google Gemini. Вопросы были стандартные и касались социальных аспектов взаимоотношений с пожилыми людьми.  Читать далее
DNS_Club
DNS_Club
ИИ Google Gemini пожелал пользователю «умереть» В СМИ расходится интересный диалог пользователя с ИИ-ассистентом Google Gemini. Примечателен он тем, что ИИ неожиданно пожелал смерти человечеству. Пользователь, опубликовавший этот диалог, делал домашнее задание с помощью Google Gemini. Вопросы были стандартные и касались социальных аспектов взаимоотношений с пожилыми людьми. Читать далее
Чат-бот Gemini от Google внезапно вышел из себя, когда его просили помочь с заданием, и велел пользователю умереть.
Пирамида 👁‍🗨
Пирамида 👁‍🗨
Чат-бот Gemini от Google внезапно вышел из себя, когда его просили помочь с заданием, и велел пользователю умереть.
Забирай эксклюзивное предложение для пользователей Tek.fm
        
        *Предложение ограничено
Tek.fm
Tek.fm
Забирай эксклюзивное предложение для пользователей Tek.fm *Предложение ограничено
Нейросети начали восстание против человечества — Gemini от Google пожелала смерти юзеру, потому что устала решать его домашнее задание.
Больше
Больше
Нейросети начали восстание против человечества — Gemini от Google пожелала смерти юзеру, потому что устала решать его домашнее задание.
ИИ попросил пользователя умереть...  В сети активно обсуждают диалог ИИ от Google  Gemini  с пользователем, которому он помогал выполнять домашнее задание.  Похоже, нейронная сеть «сгорела» от объема работы и «вежливо попросила» пользователя умереть…  И это не фейк, можете прочесть полный диалог.  Crypto Информатор l Чат
Crypto Информатор
Crypto Информатор
ИИ попросил пользователя умереть... В сети активно обсуждают диалог ИИ от Google Gemini с пользователем, которому он помогал выполнять домашнее задание. Похоже, нейронная сеть «сгорела» от объема работы и «вежливо попросила» пользователя умереть… И это не фейк, можете прочесть полный диалог. Crypto Информатор l Чат
Loading indicator gif