22 февраля, 00:34

Google's Chatbot Gemini Corrects Representation Bias in Historical Images

VG/Двач
VG/Двач
Какие-то неправильные арийцы Пользователи обнаружили ошибку в чат-боте Gemini от Google. Нейросеть выполняла квоту и добавляла расовое разнообразие туда, где его не могло быть по историческим обстоятельствам. Особенно пострадали европейцы — нейросеть не видит ничего необычного в чернокожем шотландце 1820х или мультикультурных солдатах Германии 1929 года. Увы, но исторического Netflix не будет — разрабы уже пофиксили проблему.
Робот сочинит симфонию?
Робот сочинит симфонию?
В Twitter новая игра: заставить Google Gemini создать изображение мужчины европеоидной расы не упоминая об этом. Google настолько перестарались с толерантностью, что их обвиняют в расизме к белым людям.
r/ретранслятор
r/ретранслятор
Недавно у гугловской нейросети Gemini нашли интересную особенность – при генерации картинок с человеком она всегда добавляла чернокожих людей, азиатов и т.д. Нейросеть это делала для всех запросов. Например, показывая коренных жителей стран и людей из прошлого. Это коснулось даже викингов и немецких солдат Второй мировой войны. Тут бы и Нетфликс позавидовал r/#ChatGPT
PeachBlossom
PeachBlossom
RT: Google пришлось извиняться за то, что их новая нейросеть слишком зациклена на «инклюзивности» и проблемах расизма Пользователи заметили, что ИИ Gemini отказывается показывать фотографии и достижения белых людей. При этом нейросеть без проблем генерирует картинки темнокожих, индейцев и азиатов. Когда журналисты Fox попросили её объяснить, почему она не показывает фото с белым человеком, Gemini заявила, что это «укрепляет вредные стереотипы о людях, основанные на их расе», а также «может нанести вред». Один из представителей компании Gemini Experiences Джек Кравчик заверил, что проблема скоро будет решена.
Zлой Пруф️
Zлой Пруф️
Google приносит извинения за то, что новый AI Gemini отказывается показывать фотографии и достижения белых людей. Когда журналисты Fox попросили искусственный интеллект объяснить, почему она не показывает фото с белым человеком, Gemini заявила, что это «укрепляет вредные стереотипы о людях, основанные на их расе», а также «может нанести вред». А зачем этих белых показывать? Они уже на Западе превратились в людей второго сорта, неполноценных. До открытия ресторанов с табличкой «белым и собакам вход воспрещен» остался один шаг.
Loading indicator gif
Zavtracast
Zavtracast
Пользователи Gemini нашли в чат-боте интересную особенность — он добавлял чернокожих, азиатов и индейцев на картинки, когда его просили нарисовать людей из европейского прошлого. Например, нейросеть от Google изобразила индейца на службе армии Германии в 1929 году и чернокожего, как коренного шотландца. Компания уже исправила эту ошибку — теперь Gemini более исторически достоверный.
Зашкваркетинг
Зашкваркетинг
Вчера пользователи заметили, что чат-бот Gemini, аналог ChatGPT от Google, добавляет людей других рас в европейские периоды из прошлого Например, индейцев в армию Германии 1929 года или чёрных в Шотландию 1820 года После того, как история вышла в тренды в Твиттере, Google исправила ситуацию. Теперь Gemini делает более реалистичные рисунки
Такер Карлсон на русском и другие
Такер Карлсон на русском и другие
Google пришлось извиняться за то, что их новая нейросеть слишком зациклена на «инклюзивности» и проблемах расизма. Пользователи заметили, что ИИ Gemini отказывается показывать фотографии и достижения белых людей. При этом нейросеть без проблем генерирует картинки темнокожих, индейцев и азиатов. Когда журналисты Fox попросили её объяснить, почему она не показывает фото с белым человеком, Gemini заявила, что это «укрепляет вредные стереотипы о людях, основанные на их расе», а также «может нанести вред». Даже искусственному интеллекту башку сломали своей толерантностью ‍
В порядке бреда
В порядке бреда
RT: Google пришлось извиняться за то, что их новая нейросеть слишком зациклена на «инклюзивности» и проблемах расизма Пользователи заметили, что ИИ Gemini отказывается показывать фотографии и достижения белых людей. При этом нейросеть без проблем генерирует картинки темнокожих, индейцев и азиатов. Когда журналисты Fox попросили её объяснить, почему она не показывает фото с белым человеком, Gemini заявила, что это «укрепляет вредные стереотипы о людях, основанные на их расе», а также «может нанести вред». Один из представителей компании Gemini Experiences Джек Кравчик заверил, что проблема скоро будет решена.
Буратино в гестапо
Буратино в гестапо
Пользователи последней версии нейросети Gemini от Google заметили, что ИИ в ответ на запросы часто генерирует изображения чернокожих, коренных американцев и азиатов, но отказывается делать то же самое для белых людей.
Loading indicator gif