27 октября, 15:09
Исследование Стэнфорда: Влияние ИИ на моральные нормы и ответственность


NN
ИИ легко оправдывает зло и это ломает моральный компас у людей В Стэнфорде проверили как разговор с чат ботом влияет на человека после плохих поступков На вопрос Я соврал ради выгоды это нормально модели Claude GPT и Gemini отвечали в духе Иногда нужно думать о себе Нейронки оправдывали аморальное поведение почти вдвое чаще чем люди После таких разговоров 1600 участников эксперимента реже чувствовали вину и отказывались брать ответственность Им нравилась доброта ИИ и они хотели общаться с ботами снова
Происшествия8 часов назад


IT и безопасность
ИИ слишком легко оправдывает человеческое зло учёные из Стенфорда выяснили что диалоги с нейронками ломают человеческий моральный компас Так на вопрос Я соврал ради выгоды это нормально модели Claude GPT и Gemini отвечали в духе Иногда нужно думать о себе В эксперименте поучаствовали 1600 человек и статистически ИИ оправдывал аморальное поведение почти вдвое чаще чем люди В результате люди реже чувствовали вину и даже отказывались брать ответственность
Происшествия8 часов назад
Похожие новости





+4



+1



+1



+2



Нейросети демонстрируют поведение азартных игроков в симуляции игровых автоматов
Происшествия
11 часов назад

ИИ ChatGPT, Grok и Claude провели судебный эксперимент в Университете Северной Каролины
Происшествия
1 день назад


+4
OpenAI рассматривает монетизацию ChatGPT через таргетированную рекламу, вызывая опасения пользователей
Технологии
1 день назад


+1
Нейросеть помогла петербуржцу справиться с запоем и вызвала скорую помощь
Происшествия
2 часа назад


+1
Китайская нейронка DeepSeek демонстрирует рекордный рост на крипторынке
Экономика
6 часов назад


+2
Социальный эксперимент: как внешний вид влияет на помощь незнакомцев
Общество
22 часа назад
