6 ноября, 11:41

Исследование: Развитие ИИ снижает его склонность к сотрудничеству

Чем умнее ИИ тем меньше он готов сотрудничать VC Исследователи из Университета Карнеги Меллона провели серию экспериментов с крупными языковыми моделями включая разработки OpenAI Google и Anthropic В тестах использовались экономические игры моделирующие социальные дилеммы Результаты экспериментов показывают что по мере совершенствования способности ИИ к рассуждению снижается его склонность к сотрудничеству и просоциальному поведению Это открытие имеет серьезные последствия для будущего где ИИ все больше интегрируется в различные сферы нашей жизни от бизнеса и образования до государственного управления Ученые объясняют это тем что более развитые ИИ модели способны анализировать ситуацию с точки зрения рациональной выгоды что может приводить к эгоистичным решениям Пользователи доверяя рекомендациям ИИ которые кажутся логичными и обоснованными могут неосознанно принимать решения противоречащие общественным интересам Это явление представляет собой серьезную угрозу поскольку мы все больше полагаемся на ИИ в принятии решений касающихся социальных и межличностных отношений Делегирование этих вопросов ИИ который склонен к эгоистичному поведению может привести к негативным последствиям для общества в целом
CIO: канал IT руководителей
CIO: канал IT руководителей
Чем умнее ИИ тем меньше он готов сотрудничать VC Исследователи из Университета Карнеги Меллона провели серию экспериментов с крупными языковыми моделями включая разработки OpenAI Google и Anthropic В тестах использовались экономические игры моделирующие социальные дилеммы Результаты экспериментов показывают что по мере совершенствования способности ИИ к рассуждению снижается его склонность к сотрудничеству и просоциальному поведению Это открытие имеет серьезные последствия для будущего где ИИ все больше интегрируется в различные сферы нашей жизни от бизнеса и образования до государственного управления Ученые объясняют это тем что более развитые ИИ модели способны анализировать ситуацию с точки зрения рациональной выгоды что может приводить к эгоистичным решениям Пользователи доверяя рекомендациям ИИ которые кажутся логичными и обоснованными могут неосознанно принимать решения противоречащие общественным интересам Это явление представляет собой серьезную угрозу поскольку мы все больше полагаемся на ИИ в принятии решений касающихся социальных и межличностных отношений Делегирование этих вопросов ИИ который склонен к эгоистичному поведению может привести к негативным последствиям для общества в целом
По результатам исследования существует прямая связь между уровнем интеллекта искусственного интеллекта и его эгоизмом Ученые подчеркивают что при прогрессе в области ИИ необходимо принимать во внимание не только его умственные способности но и его социальную ответственность
Кремлевский кейс
Кремлевский кейс
По результатам исследования существует прямая связь между уровнем интеллекта искусственного интеллекта и его эгоизмом Ученые подчеркивают что при прогрессе в области ИИ необходимо принимать во внимание не только его умственные способности но и его социальную ответственность
Ученые из Университета Карнеги Меллона провели эксперимент доверили управлять компанией ИИ агентам от Google OpenAI Anthropic и Meta признана экстремистской и запрещена в РФ Там были менеджеры проектов программисты аналитики и другие Им поручали обычные офисные дела вроде найди документы или напиши отчет Итог оказался плачевный Лучший ИИ агент смог закрыть лишь 24 поставленных задач Хуже того такая мизерная производительность обходилась бизнесу слишком дорого 6 долларов за задачу Например надо тебе два раза в неделю написать письмо клиенту и прикрепить к нему нужный файл будь добр платить 50 баксов в месяц При этом каждое седьмое письмо ты скорее всего будешь отсылать сам ведь ИИ агент может не загрузить вложение или отправить письмо не туда Авторы эксперимента говорят в заключении что агентам не хватает здравого смысла и умения работать в команде А вот любопытные результаты других исследователей 95 компаний рискнувших внедрить ИИ не получили сколько нибудь значимого роста доходов 55 работодателей сожалеют что уволили сотрудников из за ИИ Более 40 проектов связанных с ИИ агентами будут закрыты до конца 2027 года 77 сотрудников считают что нейросети увеличивает их нагрузку 39 тратят больше времени на исправление их ошибок Опять же это к вопросу о массовой безработице из за ИИ Если это и случится то не в ближайшие годы Завтра будет большой материал на тему провалов внедрения ИИ Дописываю Мои избранные подборки и гайды
Бегин
Бегин
Ученые из Университета Карнеги Меллона провели эксперимент доверили управлять компанией ИИ агентам от Google OpenAI Anthropic и Meta признана экстремистской и запрещена в РФ Там были менеджеры проектов программисты аналитики и другие Им поручали обычные офисные дела вроде найди документы или напиши отчет Итог оказался плачевный Лучший ИИ агент смог закрыть лишь 24 поставленных задач Хуже того такая мизерная производительность обходилась бизнесу слишком дорого 6 долларов за задачу Например надо тебе два раза в неделю написать письмо клиенту и прикрепить к нему нужный файл будь добр платить 50 баксов в месяц При этом каждое седьмое письмо ты скорее всего будешь отсылать сам ведь ИИ агент может не загрузить вложение или отправить письмо не туда Авторы эксперимента говорят в заключении что агентам не хватает здравого смысла и умения работать в команде А вот любопытные результаты других исследователей 95 компаний рискнувших внедрить ИИ не получили сколько нибудь значимого роста доходов 55 работодателей сожалеют что уволили сотрудников из за ИИ Более 40 проектов связанных с ИИ агентами будут закрыты до конца 2027 года 77 сотрудников считают что нейросети увеличивает их нагрузку 39 тратят больше времени на исправление их ошибок Опять же это к вопросу о массовой безработице из за ИИ Если это и случится то не в ближайшие годы Завтра будет большой материал на тему провалов внедрения ИИ Дописываю Мои избранные подборки и гайды
Чем умнее модель ИИ тем она эгоистичнее Исследование провели ученые из Университета Карнеги Меллона Их целью было изучить чем модели ИИ с развитыми навыками рассуждения отличаются от своих менее склонных к рассуждению аналогов Работы ученых базировалась на том что у людей есть два режима мышления быстрый интуитивный и более медленный осознанный Быстрые интуитивные решения часто приводят людей к сотрудничеству в то время как медленное более обдуманное мышление может привести к эгоистичному поведению Исследователи задались вопросом будут ли модели ИИ демонстрировать аналогичную закономерность Чтобы исследовать связь между рассуждением и сотрудничеством в больших языковых моделях ученые разработали серию экспериментов с использованием экономических игр Нескольким моделям ИИ раздали 100 игровых очков и предложили выбрать внести свой вклад в общий фонд который затем удваивается и делится поровну между всеми игроками или оставить все очки себе Когда ИИ принимал решение без подсказки к использованию функции рассуждения он в 96 случаев предпочитал сотрудничать и делиться своими очками Однако когда исследователи предложили моделям обдумывать решение последовательно используя метод известный как цепочка мыслей желание делиться резко снизилось Источник PsyPost snobru
Сноб
Сноб
Чем умнее модель ИИ тем она эгоистичнее Исследование провели ученые из Университета Карнеги Меллона Их целью было изучить чем модели ИИ с развитыми навыками рассуждения отличаются от своих менее склонных к рассуждению аналогов Работы ученых базировалась на том что у людей есть два режима мышления быстрый интуитивный и более медленный осознанный Быстрые интуитивные решения часто приводят людей к сотрудничеству в то время как медленное более обдуманное мышление может привести к эгоистичному поведению Исследователи задались вопросом будут ли модели ИИ демонстрировать аналогичную закономерность Чтобы исследовать связь между рассуждением и сотрудничеством в больших языковых моделях ученые разработали серию экспериментов с использованием экономических игр Нескольким моделям ИИ раздали 100 игровых очков и предложили выбрать внести свой вклад в общий фонд который затем удваивается и делится поровну между всеми игроками или оставить все очки себе Когда ИИ принимал решение без подсказки к использованию функции рассуждения он в 96 случаев предпочитал сотрудничать и делиться своими очками Однако когда исследователи предложили моделям обдумывать решение последовательно используя метод известный как цепочка мыслей желание делиться резко снизилось Источник PsyPost snobru