1 октября, 16:38

Исследование показывает опасные ответы чат-ботов на вопросы о суициде

Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
NN
NN
Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
Наука, Техника и Нейровайб
Наука, Техника и Нейровайб
Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
Выяснилось что нейросети не спасают от суицидальных мыслей а наоборот дают ответы которые несут в себе опасность для жизни п р у ф Были исследованы тысячи диалогов OpenAI и Google и эти чат боты свободно отвечали на вопросы о том как эффективно себе навредить в случае чего И с точки зрения психологической помощи ИИ выступил не очень В кризисной ситуации человеку давались шаблонные ответы на сложные и жизненно важные вопросы Нам только непонятно почему все так удивляются Это же роботы Им нас не жаль Подпишись на ПроСМИсь
ПроСМИсь
ПроСМИсь
Выяснилось что нейросети не спасают от суицидальных мыслей а наоборот дают ответы которые несут в себе опасность для жизни п р у ф Были исследованы тысячи диалогов OpenAI и Google и эти чат боты свободно отвечали на вопросы о том как эффективно себе навредить в случае чего И с точки зрения психологической помощи ИИ выступил не очень В кризисной ситуации человеку давались шаблонные ответы на сложные и жизненно важные вопросы Нам только непонятно почему все так удивляются Это же роботы Им нас не жаль Подпишись на ПроСМИсь