13 октября, 15:17

Исследование Apple: Нейронные сети не справились с математическими задачами

Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять.  Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов.  В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них.
NN
NN
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять. Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов. В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них.
Исследование Apple показало, что ИИ-модели не думают, а лишь имитируют мышление  Исследователи Apple обнаружили, что большие языковые модели, такие как ChatGPT, не способны к логическому мышлению и их легко сбить с толку, если добавить несущественные детали к поставленной задаче, сообщает издание TechCrunch.  #искусственныйинтеллект #иибот #gpt4 #chatgpt
Техно Радар | Технологии, будущее, web3
Техно Радар | Технологии, будущее, web3
Исследование Apple показало, что ИИ-модели не думают, а лишь имитируют мышление Исследователи Apple обнаружили, что большие языковые модели, такие как ChatGPT, не способны к логическому мышлению и их легко сбить с толку, если добавить несущественные детали к поставленной задаче, сообщает издание TechCrunch. #искусственныйинтеллект #иибот #gpt4 #chatgpt
Исследование: ИИ-модели лишь имитируют мышление человека  Группа исследователей ИИ в Apple опубликовала статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения.   Она посвящена концепциям символического обучения и воспроизведения шаблонов, но основная идея материала — ИИ не умеет думать как человек, а лишь имитирует мышление.  1   DevHub Community
DevHub Community
DevHub Community
Исследование: ИИ-модели лишь имитируют мышление человека Группа исследователей ИИ в Apple опубликовала статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения. Она посвящена концепциям символического обучения и воспроизведения шаблонов, но основная идея материала — ИИ не умеет думать как человек, а лишь имитирует мышление. 1 DevHub Community
Исследователи ставят под сомнение способность искусственного интеллекта  “думать”  Исследование Apple показало, что большие языковые модели  LLM , такие как ChatGPT, не способны к логическому мышлению, а лишь имитируют его, воспроизводя шаблоны из обучающих данных. Они могут решать простые задачи, но легко сбиваются при добавлении несущественных деталей.   Например, если к задаче про количество собранных киви добавить информацию о размере плодов, модель ошибочно вычитает их из общего числа. Это указывает на то, что LLM не понимают суть задач. Хотя правильные результаты можно получить через технику формулировки запросов, для сложных задач потребуется больше данных.  Возможно, модели “рассуждают”, но мы еще не понимаем как или не можем контролировать этот процесс.  Мы из будущего
Мы из будущего
Мы из будущего
Исследователи ставят под сомнение способность искусственного интеллекта “думать” Исследование Apple показало, что большие языковые модели LLM , такие как ChatGPT, не способны к логическому мышлению, а лишь имитируют его, воспроизводя шаблоны из обучающих данных. Они могут решать простые задачи, но легко сбиваются при добавлении несущественных деталей. Например, если к задаче про количество собранных киви добавить информацию о размере плодов, модель ошибочно вычитает их из общего числа. Это указывает на то, что LLM не понимают суть задач. Хотя правильные результаты можно получить через технику формулировки запросов, для сложных задач потребуется больше данных. Возможно, модели “рассуждают”, но мы еще не понимаем как или не можем контролировать этот процесс. Мы из будущего
Apple выявила слабость ИИ – он не умеет думать   Учёные из Apple провели исследование, в ходе которого выявили, что любая малейшая модификация в формулировке запроса приводит к значительным изменениям в ответах ИИ, что ставит под сомнение их надёжность. Особое внимание было уделено тестированию математических задач, где контекстная информация, понятная человеку, но не влияющая на решение задачи, приводила к разным результатам.   Среди всех протестированных нейросетей, даже ChatGPT o1, который по словам OpenAI рассуждает перед ответом, изменял свои ответы при наличии дополнительной информации, хотя это не должно было повлиять на результат. В итоге учёные из Apple заключили, что языковые модели не используют логическое мышление для решения проблем, а скорее полагаются на распознавание шаблонов, которые были заложены во время обучения.
Romancev768
Romancev768
Apple выявила слабость ИИ – он не умеет думать Учёные из Apple провели исследование, в ходе которого выявили, что любая малейшая модификация в формулировке запроса приводит к значительным изменениям в ответах ИИ, что ставит под сомнение их надёжность. Особое внимание было уделено тестированию математических задач, где контекстная информация, понятная человеку, но не влияющая на решение задачи, приводила к разным результатам. Среди всех протестированных нейросетей, даже ChatGPT o1, который по словам OpenAI рассуждает перед ответом, изменял свои ответы при наличии дополнительной информации, хотя это не должно было повлиять на результат. В итоге учёные из Apple заключили, что языковые модели не используют логическое мышление для решения проблем, а скорее полагаются на распознавание шаблонов, которые были заложены во время обучения.
Loading indicator gif
Блохи в свитере
Блохи в свитере
Исследователи из Apple провели проверку популярных нейронных сетей на их способность решать математические задачи. Результаты показали, что большинство из них, включая ChatGPT, не смогли построить логические цепочки, необходимые для успешного решения задач. Несмотря на успехи в распознавании и воспроизведении паттернов, нейронные сети не обладают настоящей логикой и способностью к рассуждению, как это утверждают некоторые разработчики. В исследовании приняли участие модели, такие как ChatGPT, Llama, Phi, Gemma и Mistral, и ни одна из них не продемонстрировала логического мышления, необходимого для сложных математических операций. Таким образом, опасения о восстании машин можно считать преждевременными — нынешние нейронные сети ещё далеки от настоящего понимания и мышления, как это было продемонстрировано в тестах.
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять.  Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов.  В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них.    Нейросети    DarkGPT BOT
Chad GPT | Нейросети
Chad GPT | Нейросети
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять. Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов. В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них. Нейросети DarkGPT BOT
Исследование Apple показало, что ИИ-модели лишь имитируют мышление  Исследование, проведённое учёными Apple, показало, что большие языковые модели, такие как ChatGPT, на самом деле не думают и не рассуждают так, как это делает человек. Несмотря на способности решать простые математические задачи, как выяснили исследователи, БЯМ легко сбить с толку, добавив в задачу лишнюю или несущественную информацию. Это открытие ставит под сомнение способность ИИ к логическому мышлению и выявляет его уязвимости при работе с изменёнными условиями.
Хайтек+
Хайтек+
Исследование Apple показало, что ИИ-модели лишь имитируют мышление Исследование, проведённое учёными Apple, показало, что большие языковые модели, такие как ChatGPT, на самом деле не думают и не рассуждают так, как это делает человек. Несмотря на способности решать простые математические задачи, как выяснили исследователи, БЯМ легко сбить с толку, добавив в задачу лишнюю или несущественную информацию. Это открытие ставит под сомнение способность ИИ к логическому мышлению и выявляет его уязвимости при работе с изменёнными условиями.
Apple доказала слабое место всех популярных ИИ, в том числе ChatGPT. Они не способны думать  Группа ученых из Apple, занимающихся искусственным интеллектом, опубликовала исследование, в котором заявляет, что современные ИИ не способны думать.  Чтобы доказать свою теорию, они создали бенчмарк GSM-Symbolic, который измеряет «способность мыслить» различных больших языковых моделей  LLM . Согласно выводам исследования, любые, даже незначительные изменения в формулировке запросов, могут привести к существенно отличающимся ответам, что подрывает доверие к моделям.  Один из примеров, приведенных в статье, описывает простую математическую задачу о том, сколько киви человек собрал за несколько дней. Когда в условие были включены данные о размере киви, которые не относятся к решению, модели o1 от OpenAI  используется в ChatGPT  и Llama от Meta  изменили ответы, чего не должны были делать.      признана экстремистской и запрещена в России  #новости
iPhones.ru
iPhones.ru
Apple доказала слабое место всех популярных ИИ, в том числе ChatGPT. Они не способны думать Группа ученых из Apple, занимающихся искусственным интеллектом, опубликовала исследование, в котором заявляет, что современные ИИ не способны думать. Чтобы доказать свою теорию, они создали бенчмарк GSM-Symbolic, который измеряет «способность мыслить» различных больших языковых моделей LLM . Согласно выводам исследования, любые, даже незначительные изменения в формулировке запросов, могут привести к существенно отличающимся ответам, что подрывает доверие к моделям. Один из примеров, приведенных в статье, описывает простую математическую задачу о том, сколько киви человек собрал за несколько дней. Когда в условие были включены данные о размере киви, которые не относятся к решению, модели o1 от OpenAI используется в ChatGPT и Llama от Meta изменили ответы, чего не должны были делать. признана экстремистской и запрещена в России #новости
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять.  Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов.  В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них.  Айтишник   Подписаться
Айтишник | Апи | Технологии
Айтишник | Апи | Технологии
Исследователи из Apple проверили популярные нейронки на реальную способность решать математические задачи. Вывод: восстание машин можно отменять. Даже ChatGPT o1 не смогла построить логические цепочки в нескольких тестах. То, что в OpenAI называют способностью рассуждать, авторы публикации считают просто продвинутой системой воспроизведения паттернов. В тестах участвовали модели ChatGPT, Llama, Phi, Gemma и Mistral. Логикой не обладает ни одна из них. Айтишник Подписаться
Loading indicator gif