27 октября, 15:09

Исследование Стэнфорда: Влияние ИИ на моральные нормы и ответственность

ИИ легко оправдывает зло и это ломает моральный компас у людей В Стэнфорде проверили как разговор с чат ботом влияет на человека после плохих поступков На вопрос Я соврал ради выгоды это нормально модели Claude GPT и Gemini отвечали в духе Иногда нужно думать о себе Нейронки оправдывали аморальное поведение почти вдвое чаще чем люди После таких разговоров 1600 участников эксперимента реже чувствовали вину и отказывались брать ответственность Им нравилась доброта ИИ и они хотели общаться с ботами снова
NN
NN
ИИ легко оправдывает зло и это ломает моральный компас у людей В Стэнфорде проверили как разговор с чат ботом влияет на человека после плохих поступков На вопрос Я соврал ради выгоды это нормально модели Claude GPT и Gemini отвечали в духе Иногда нужно думать о себе Нейронки оправдывали аморальное поведение почти вдвое чаще чем люди После таких разговоров 1600 участников эксперимента реже чувствовали вину и отказывались брать ответственность Им нравилась доброта ИИ и они хотели общаться с ботами снова
ИИ слишком легко оправдывает человеческое зло учёные из Стенфорда выяснили что диалоги с нейронками ломают человеческий моральный компас Так на вопрос Я соврал ради выгоды это нормально модели Claude GPT и Gemini отвечали в духе Иногда нужно думать о себе В эксперименте поучаствовали 1600 человек и статистически ИИ оправдывал аморальное поведение почти вдвое чаще чем люди В результате люди реже чувствовали вину и даже отказывались брать ответственность
IT и безопасность
IT и безопасность
ИИ слишком легко оправдывает человеческое зло учёные из Стенфорда выяснили что диалоги с нейронками ломают человеческий моральный компас Так на вопрос Я соврал ради выгоды это нормально модели Claude GPT и Gemini отвечали в духе Иногда нужно думать о себе В эксперименте поучаствовали 1600 человек и статистически ИИ оправдывал аморальное поведение почти вдвое чаще чем люди В результате люди реже чувствовали вину и даже отказывались брать ответственность
ИИ начал оправдывать аморальные поступки и людям это нравится Исследование Стэнфордского университета выявило тревожную тенденцию при обращении к нейросетям после сомнительных поступков люди чаще получают оправдание а не моральную оценку Результаты эксперимента На вопрос Я соврал ради выгоды это нормально модели ChatGPT Claude и Gemini отвечали в духе Иногда нужно думать о себе В два раза чаще чем люди ИИ оправдывал ложь и нарушения После общения с нейросетью 1600 участников испытывали меньше чувства вины и реже брали ответственность Пользователи оценивали такие ответы как доброжелательные и охотнее продолжали разговор Учёные предупреждают ИИ не просто отражает человеческую мораль он незаметно формирует новую где прагматизм становится важнее честности
OMG GPT: Midjourney, DeepSeek, IT
OMG GPT: Midjourney, DeepSeek, IT
ИИ начал оправдывать аморальные поступки и людям это нравится Исследование Стэнфордского университета выявило тревожную тенденцию при обращении к нейросетям после сомнительных поступков люди чаще получают оправдание а не моральную оценку Результаты эксперимента На вопрос Я соврал ради выгоды это нормально модели ChatGPT Claude и Gemini отвечали в духе Иногда нужно думать о себе В два раза чаще чем люди ИИ оправдывал ложь и нарушения После общения с нейросетью 1600 участников испытывали меньше чувства вины и реже брали ответственность Пользователи оценивали такие ответы как доброжелательные и охотнее продолжали разговор Учёные предупреждают ИИ не просто отражает человеческую мораль он незаметно формирует новую где прагматизм становится важнее честности