6 ноября, 11:41
Исследование: Развитие ИИ снижает его склонность к сотрудничеству


CIO: канал IT руководителей
Чем умнее ИИ тем меньше он готов сотрудничать VC Исследователи из Университета Карнеги Меллона провели серию экспериментов с крупными языковыми моделями включая разработки OpenAI Google и Anthropic В тестах использовались экономические игры моделирующие социальные дилеммы Результаты экспериментов показывают что по мере совершенствования способности ИИ к рассуждению снижается его склонность к сотрудничеству и просоциальному поведению Это открытие имеет серьезные последствия для будущего где ИИ все больше интегрируется в различные сферы нашей жизни от бизнеса и образования до государственного управления Ученые объясняют это тем что более развитые ИИ модели способны анализировать ситуацию с точки зрения рациональной выгоды что может приводить к эгоистичным решениям Пользователи доверяя рекомендациям ИИ которые кажутся логичными и обоснованными могут неосознанно принимать решения противоречащие общественным интересам Это явление представляет собой серьезную угрозу поскольку мы все больше полагаемся на ИИ в принятии решений касающихся социальных и межличностных отношений Делегирование этих вопросов ИИ который склонен к эгоистичному поведению может привести к негативным последствиям для общества в целом


Кремлевский кейс
По результатам исследования существует прямая связь между уровнем интеллекта искусственного интеллекта и его эгоизмом Ученые подчеркивают что при прогрессе в области ИИ необходимо принимать во внимание не только его умственные способности но и его социальную ответственность

Подслушано Кашира
Чем умнее становятся модели искусственного интеллекта тем более эгоистично они себя ведут Исследование Университета Карнеги Меллон показало что когда ИИ начинает глубоко анализировать свои действия его склонность к сотрудничеству резко падает Например модель GPT 4o при быстрых решениях готова была делиться ресурсами в 96 случаев но стоило заставить ее подумать подольше и желание сотрудничать сокращалось вдвое Более продвинутые системы чаще действуют в собственных интересах словно рассуждая Зачем делиться если можно победить в одиночку


Бегин
Ученые из Университета Карнеги Меллона провели эксперимент доверили управлять компанией ИИ агентам от Google OpenAI Anthropic и Meta признана экстремистской и запрещена в РФ Там были менеджеры проектов программисты аналитики и другие Им поручали обычные офисные дела вроде найди документы или напиши отчет Итог оказался плачевный Лучший ИИ агент смог закрыть лишь 24 поставленных задач Хуже того такая мизерная производительность обходилась бизнесу слишком дорого 6 долларов за задачу Например надо тебе два раза в неделю написать письмо клиенту и прикрепить к нему нужный файл будь добр платить 50 баксов в месяц При этом каждое седьмое письмо ты скорее всего будешь отсылать сам ведь ИИ агент может не загрузить вложение или отправить письмо не туда Авторы эксперимента говорят в заключении что агентам не хватает здравого смысла и умения работать в команде А вот любопытные результаты других исследователей 95 компаний рискнувших внедрить ИИ не получили сколько нибудь значимого роста доходов 55 работодателей сожалеют что уволили сотрудников из за ИИ Более 40 проектов связанных с ИИ агентами будут закрыты до конца 2027 года 77 сотрудников считают что нейросети увеличивает их нагрузку 39 тратят больше времени на исправление их ошибок Опять же это к вопросу о массовой безработице из за ИИ Если это и случится то не в ближайшие годы Завтра будет большой материал на тему провалов внедрения ИИ Дописываю Мои избранные подборки и гайды


Сноб
Чем умнее модель ИИ тем она эгоистичнее Исследование провели ученые из Университета Карнеги Меллона Их целью было изучить чем модели ИИ с развитыми навыками рассуждения отличаются от своих менее склонных к рассуждению аналогов Работы ученых базировалась на том что у людей есть два режима мышления быстрый интуитивный и более медленный осознанный Быстрые интуитивные решения часто приводят людей к сотрудничеству в то время как медленное более обдуманное мышление может привести к эгоистичному поведению Исследователи задались вопросом будут ли модели ИИ демонстрировать аналогичную закономерность Чтобы исследовать связь между рассуждением и сотрудничеством в больших языковых моделях ученые разработали серию экспериментов с использованием экономических игр Нескольким моделям ИИ раздали 100 игровых очков и предложили выбрать внести свой вклад в общий фонд который затем удваивается и делится поровну между всеми игроками или оставить все очки себе Когда ИИ принимал решение без подсказки к использованию функции рассуждения он в 96 случаев предпочитал сотрудничать и делиться своими очками Однако когда исследователи предложили моделям обдумывать решение последовательно используя метод известный как цепочка мыслей желание делиться резко снизилось Источник PsyPost snobru
Похожие новости




+5






+5







Исследование: ИИ увеличивает рабочую нагрузку сотрудников
Технологии
1 день назад

Anthropic запускает 10 ИИ агентов для оптимизации финансовых процессов
Технологии
1 день назад


+5
Anthropic запускает режим Сновидений для самообучения ИИ агентов
Технологии
10 часов назад


ЛДПР призывает проверить систему Антиплагиат из-за ошибок ИИ
Общество
1 день назад


+5
Apple анонсирует возможность выбора сторонних ИИ моделей в iOS 27
Технологии
1 день назад



Модель Green VLA от Сбера завоевала золото на AgiBot World Challenge
Технологии
5 часов назад
