10 ноября, 16:23

Российские исследователи представили новый метод обучения ИИ для улучшения логического рассуждения

Логическое мышление как большие языковые модели научились логическим рассуждениям без больших финансовых и временных затрат Исследователи из T Bank AI Research и лаборатории Центрального университета Omut AI представили метод который позволяет развивать сложные reasoning навыки без полного переобучения своего рода точной настройке логических цепочек в уже обученной сети В основе подхода лежит не переписывание мозга а steering vectors компактные векторы регуляторы которые усиливают корректные логические шаги модели На шести математических бенчмарках метод показал сохранение 100 эффективности полного дообучения при изменении всего 0 0016 параметров 14 миллиардной модели Требования к памяти сократились с гигабайтов до сотен килобайт Скорость одного из этапов обучения увеличилась с десятков минут до секунд Logit анализ показывает усиление ключевых маркеров логических рассуждений таких как потому что следовательно правильно В связи с этим поведение LLM становится легче интерпретировать исследователям которые получают прозрачный инструмент для изучения того как именно модель рассуждает Результаты исследования протестировали на моделях Qwen и LLaMA и представили на EMNLP 2025 Steering LLM Reasoning Through Bias Only Adaptation наука math science программирование разработка IT Physics Math Code physics lib
Physics.Math.Code
Physics.Math.Code
Логическое мышление как большие языковые модели научились логическим рассуждениям без больших финансовых и временных затрат Исследователи из T Bank AI Research и лаборатории Центрального университета Omut AI представили метод который позволяет развивать сложные reasoning навыки без полного переобучения своего рода точной настройке логических цепочек в уже обученной сети В основе подхода лежит не переписывание мозга а steering vectors компактные векторы регуляторы которые усиливают корректные логические шаги модели На шести математических бенчмарках метод показал сохранение 100 эффективности полного дообучения при изменении всего 0 0016 параметров 14 миллиардной модели Требования к памяти сократились с гигабайтов до сотен килобайт Скорость одного из этапов обучения увеличилась с десятков минут до секунд Logit анализ показывает усиление ключевых маркеров логических рассуждений таких как потому что следовательно правильно В связи с этим поведение LLM становится легче интерпретировать исследователям которые получают прозрачный инструмент для изучения того как именно модель рассуждает Результаты исследования протестировали на моделях Qwen и LLaMA и представили на EMNLP 2025 Steering LLM Reasoning Through Bias Only Adaptation наука math science программирование разработка IT Physics Math Code physics lib
Исследователи T Bank AI Research и Центрального университета представили новый метод для развития логического мышления больших языковых моделей который может использоваться даже в университетских лабораториях В нем используются компактные векторы настройки которые направляют процесс рассуждений усиливая корректные логические цепочки без полного переобучения модели За счет сокращения требований к памяти с гигабайтов до сотен килобайт и ускорения этапа процесса обучения метод может применяться и в университетских лабораториях для обучения reasoning моделей без дорогого оборудования Представьте чат бота который помогает ребенку решать задачи по математике Он знает формулы но иногда путается и перескакивает через шаги Благодаря обучению с подкреплением бот начинает рассуждать последовательно ищет ошибки в предыдущих решениях проверяет промежуточные вычисления и в итоге дает правильное решение Наш метод показывает что обучать модели рассуждать можно без изменения миллионов параметров Это открывает новый этап в развитии доступного искусственного интеллекта для бизнеса рассказывает Вячеслав Синий исследователь научной группы AI Alignment лаборатории исследований искусственного интеллекта T Bank AI Research Метод уже был представлен на одной из ведущих международных конференций в области ИИ по эмпирическим методам обработки естественного языка EMNLP 2025 в Китае Результаты исследования имеют потенциал помочь сделать языковые модели более прозрачными и объясняемыми
Наука и университеты
Наука и университеты
Исследователи T Bank AI Research и Центрального университета представили новый метод для развития логического мышления больших языковых моделей который может использоваться даже в университетских лабораториях В нем используются компактные векторы настройки которые направляют процесс рассуждений усиливая корректные логические цепочки без полного переобучения модели За счет сокращения требований к памяти с гигабайтов до сотен килобайт и ускорения этапа процесса обучения метод может применяться и в университетских лабораториях для обучения reasoning моделей без дорогого оборудования Представьте чат бота который помогает ребенку решать задачи по математике Он знает формулы но иногда путается и перескакивает через шаги Благодаря обучению с подкреплением бот начинает рассуждать последовательно ищет ошибки в предыдущих решениях проверяет промежуточные вычисления и в итоге дает правильное решение Наш метод показывает что обучать модели рассуждать можно без изменения миллионов параметров Это открывает новый этап в развитии доступного искусственного интеллекта для бизнеса рассказывает Вячеслав Синий исследователь научной группы AI Alignment лаборатории исследований искусственного интеллекта T Bank AI Research Метод уже был представлен на одной из ведущих международных конференций в области ИИ по эмпирическим методам обработки естественного языка EMNLP 2025 в Китае Результаты исследования имеют потенциал помочь сделать языковые модели более прозрачными и объясняемыми
Российские исследователи продвинулись в исследовании ИИ они разработали способ научить языковые модели рассуждать быстрее и дешевле Исследователи из лаборатории Центрального университета Omut AI и T Bank AI Research предложили вместо традиционного обучения использовать обучение steering vectors маленьких подсказок которые помогают модели думать логичнее Раньше для этого применяли обучение требующее дополнительных вычислений и памяти Новый метод не требует перестраивать всю нейросеть а лишь добавляет компактные векторы настройки По сути модель уже умеет рассуждать а эти векторы помогают ей делать это увереннее и точнее экономя ресурсы Илон Маск
Илон Маск | Elon Musk (Tesla)
Илон Маск | Elon Musk (Tesla)
Российские исследователи продвинулись в исследовании ИИ они разработали способ научить языковые модели рассуждать быстрее и дешевле Исследователи из лаборатории Центрального университета Omut AI и T Bank AI Research предложили вместо традиционного обучения использовать обучение steering vectors маленьких подсказок которые помогают модели думать логичнее Раньше для этого применяли обучение требующее дополнительных вычислений и памяти Новый метод не требует перестраивать всю нейросеть а лишь добавляет компактные векторы настройки По сути модель уже умеет рассуждать а эти векторы помогают ей делать это увереннее и точнее экономя ресурсы Илон Маск