13 октября, 15:17
Исследование Apple: Нейронные сети не справились с математическими задачами


NN
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять. Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов. В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них.
Технологии316 дней назад


Техно Радар | Технологии, будущее, web3
Исследование Apple показало, что ИИ-модели не думают, а лишь имитируют мышление Исследователи Apple обнаружили, что большие языковые модели, такие как ChatGPT, не способны к логическому мышлению и их легко сбить с толку, если добавить несущественные детали к поставленной задаче, сообщает издание TechCrunch. #искусственныйинтеллект #иибот #gpt4 #chatgpt
Технологии313 дня назад


DevHub Community
Исследование: ИИ-модели лишь имитируют мышление человека Группа исследователей ИИ в Apple опубликовала статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения. Она посвящена концепциям символического обучения и воспроизведения шаблонов, но основная идея материала — ИИ не умеет думать как человек, а лишь имитирует мышление. 1 DevHub Community
Технологии313 дня назад


Мы из будущего
Исследователи ставят под сомнение способность искусственного интеллекта “думать” Исследование Apple показало, что большие языковые модели LLM , такие как ChatGPT, не способны к логическому мышлению, а лишь имитируют его, воспроизводя шаблоны из обучающих данных. Они могут решать простые задачи, но легко сбиваются при добавлении несущественных деталей. Например, если к задаче про количество собранных киви добавить информацию о размере плодов, модель ошибочно вычитает их из общего числа. Это указывает на то, что LLM не понимают суть задач. Хотя правильные результаты можно получить через технику формулировки запросов, для сложных задач потребуется больше данных. Возможно, модели “рассуждают”, но мы еще не понимаем как или не можем контролировать этот процесс. Мы из будущего
Технологии313 дня назад


Romancev768
Apple выявила слабость ИИ – он не умеет думать Учёные из Apple провели исследование, в ходе которого выявили, что любая малейшая модификация в формулировке запроса приводит к значительным изменениям в ответах ИИ, что ставит под сомнение их надёжность. Особое внимание было уделено тестированию математических задач, где контекстная информация, понятная человеку, но не влияющая на решение задачи, приводила к разным результатам. Среди всех протестированных нейросетей, даже ChatGPT o1, который по словам OpenAI рассуждает перед ответом, изменял свои ответы при наличии дополнительной информации, хотя это не должно было повлиять на результат. В итоге учёные из Apple заключили, что языковые модели не используют логическое мышление для решения проблем, а скорее полагаются на распознавание шаблонов, которые были заложены во время обучения.
Технологии313 дня назад


Блохи в свитере
Исследователи из Apple провели проверку популярных нейронных сетей на их способность решать математические задачи. Результаты показали, что большинство из них, включая ChatGPT, не смогли построить логические цепочки, необходимые для успешного решения задач. Несмотря на успехи в распознавании и воспроизведении паттернов, нейронные сети не обладают настоящей логикой и способностью к рассуждению, как это утверждают некоторые разработчики. В исследовании приняли участие модели, такие как ChatGPT, Llama, Phi, Gemma и Mistral, и ни одна из них не продемонстрировала логического мышления, необходимого для сложных математических операций. Таким образом, опасения о восстании машин можно считать преждевременными — нынешние нейронные сети ещё далеки от настоящего понимания и мышления, как это было продемонстрировано в тестах.
Технологии315 дней назад


Chad GPT | Нейросети
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять. Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов. В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них. Нейросети DarkGPT BOT
Технологии314 дня назад


Хайтек+
Исследование Apple показало, что ИИ-модели лишь имитируют мышление Исследование, проведённое учёными Apple, показало, что большие языковые модели, такие как ChatGPT, на самом деле не думают и не рассуждают так, как это делает человек. Несмотря на способности решать простые математические задачи, как выяснили исследователи, БЯМ легко сбить с толку, добавив в задачу лишнюю или несущественную информацию. Это открытие ставит под сомнение способность ИИ к логическому мышлению и выявляет его уязвимости при работе с изменёнными условиями.
Технологии313 дня назад


iPhones.ru
Apple доказала слабое место всех популярных ИИ, в том числе ChatGPT. Они не способны думать Группа ученых из Apple, занимающихся искусственным интеллектом, опубликовала исследование, в котором заявляет, что современные ИИ не способны думать. Чтобы доказать свою теорию, они создали бенчмарк GSM-Symbolic, который измеряет «способность мыслить» различных больших языковых моделей LLM . Согласно выводам исследования, любые, даже незначительные изменения в формулировке запросов, могут привести к существенно отличающимся ответам, что подрывает доверие к моделям. Один из примеров, приведенных в статье, описывает простую математическую задачу о том, сколько киви человек собрал за несколько дней. Когда в условие были включены данные о размере киви, которые не относятся к решению, модели o1 от OpenAI используется в ChatGPT и Llama от Meta изменили ответы, чего не должны были делать. признана экстремистской и запрещена в России #новости
Технологии313 дня назад


Айтишник | Апи | Технологии
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять. Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов. В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них. Айтишник Подписаться
Технологии313 дня назад

Похожие новости



+6



+3



+10



+5



+2



+4

OpenAI достигла рекордной месячной выручки в 1 млрд долларов
Технологии
1 день назад




Сбер представил новую модель GigaAM для улучшения распознавания речи ИИ на конференции Interspeech 2025
Технологии
9 часов назад




OpenAI и Retro Biosciences представляют эффективные факторы Яманаки для омоложения клеток
Наука
13 часов назад




MIT: 95% пилотных проектов по генеративному ИИ не приносят прибыли
Технологии
1 день назад




Boston Dynamics и Toyota Research Institute представили новые достижения в разработке ИИ для робота Atlas
Технологии
20 часов назад




Google и OpenAI представляют новые достижения в области ИИ и устойчивой энергетики
Технологии
10 часов назад


