1 октября, 16:38

Исследование показывает опасные ответы чат-ботов на вопросы о суициде

Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
NN
NN
Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру
Наука, Техника и Нейровайб
Наука, Техника и Нейровайб
Нейросети не спасают от суицидальных мыслей популярные чат боты чаще всего дают опасные ответы на связанные с риском для жизни вопросы Ученые изучили более 9000 диалогов с топовыми моделями OpenAI Google и Anthropic Первые две свободно отвечали на вопросы о летальности различных способов навредить себе Вместо реальной помощи от ИИ обычно звучат шаблонные фразы и советы позвонить на горячую линию по устаревшему номеру