10 ноября, 16:23
Российские исследователи представили новый метод обучения ИИ для улучшения логического рассуждения


Physics.Math.Code
Логическое мышление как большие языковые модели научились логическим рассуждениям без больших финансовых и временных затрат Исследователи из T Bank AI Research и лаборатории Центрального университета Omut AI представили метод который позволяет развивать сложные reasoning навыки без полного переобучения своего рода точной настройке логических цепочек в уже обученной сети В основе подхода лежит не переписывание мозга а steering vectors компактные векторы регуляторы которые усиливают корректные логические шаги модели На шести математических бенчмарках метод показал сохранение 100 эффективности полного дообучения при изменении всего 0 0016 параметров 14 миллиардной модели Требования к памяти сократились с гигабайтов до сотен килобайт Скорость одного из этапов обучения увеличилась с десятков минут до секунд Logit анализ показывает усиление ключевых маркеров логических рассуждений таких как потому что следовательно правильно В связи с этим поведение LLM становится легче интерпретировать исследователям которые получают прозрачный инструмент для изучения того как именно модель рассуждает Результаты исследования протестировали на моделях Qwen и LLaMA и представили на EMNLP 2025 Steering LLM Reasoning Through Bias Only Adaptation наука math science программирование разработка IT Physics Math Code physics lib
Общество5 часов назад

Интеррос
Исследователи из лаборатории Центрального университета Omut AI и T Bank AI Research нашли способ дешевле и быстрее обучать большие языковые модели рассуждению Вместо обучения с подкреплением требующего корректировки миллиардов параметров ученые предложили использовать векторы настройки steering vectors Они работают как регуляторы громкости модель уже умеет рассуждать а векторы позволяют усилить правильные логические шаги Такой подход затрагивает лишь несколько сотен тысяч параметров и сокращает длительность одного из этапов обучения с десятков минут до считанных секунд Метод делает поведение модели более прозрачным Logit анализ показал что векторы усиливают значимость ключевых слов рассуждений потому что правильно поэтому Это помогает исследователям лучше понимать как именно модель приходит к выводу Разработку уже протестировали на языковых моделях Qwen и LLaMA Ее можно интегрировать в существующие чат боты системы проверки кода и аналитические платформы Благодаря компактности подхода обучение стало доступным не только крупным IT компаниям но и университетским лабораториям и небольшим организациям Эффективность метода подтверждена на шести международных бенчмарках по математическому рассуждению при этом качество решений сохраняется до 100 Его представили на одной из ведущих международных конференций по искусственному интеллекту Empirical Methods in Natural Language Processing EMNLP 2025 проходившей в Китае с 4 по 9 ноября Подробнее в материале Центрального университета
Общество4 часа назад


Наука и университеты
Исследователи T Bank AI Research и Центрального университета представили новый метод для развития логического мышления больших языковых моделей который может использоваться даже в университетских лабораториях В нем используются компактные векторы настройки которые направляют процесс рассуждений усиливая корректные логические цепочки без полного переобучения модели За счет сокращения требований к памяти с гигабайтов до сотен килобайт и ускорения этапа процесса обучения метод может применяться и в университетских лабораториях для обучения reasoning моделей без дорогого оборудования Представьте чат бота который помогает ребенку решать задачи по математике Он знает формулы но иногда путается и перескакивает через шаги Благодаря обучению с подкреплением бот начинает рассуждать последовательно ищет ошибки в предыдущих решениях проверяет промежуточные вычисления и в итоге дает правильное решение Наш метод показывает что обучать модели рассуждать можно без изменения миллионов параметров Это открывает новый этап в развитии доступного искусственного интеллекта для бизнеса рассказывает Вячеслав Синий исследователь научной группы AI Alignment лаборатории исследований искусственного интеллекта T Bank AI Research Метод уже был представлен на одной из ведущих международных конференций в области ИИ по эмпирическим методам обработки естественного языка EMNLP 2025 в Китае Результаты исследования имеют потенциал помочь сделать языковые модели более прозрачными и объясняемыми
Общество5 часов назад


Илон Маск | Elon Musk (Tesla)
Российские исследователи продвинулись в исследовании ИИ они разработали способ научить языковые модели рассуждать быстрее и дешевле Исследователи из лаборатории Центрального университета Omut AI и T Bank AI Research предложили вместо традиционного обучения использовать обучение steering vectors маленьких подсказок которые помогают модели думать логичнее Раньше для этого применяли обучение требующее дополнительных вычислений и памяти Новый метод не требует перестраивать всю нейросеть а лишь добавляет компактные векторы настройки По сути модель уже умеет рассуждать а эти векторы помогают ей делать это увереннее и точнее экономя ресурсы Илон Маск
Общество5 часов назад
Похожие новости



+3





+1



+1



+6




Microsoft запускает команду для разработки медицинского суперинтеллекта
Технологии
7 часов назад


+3
Учителя обеспокоены влиянием нейросетей на обучение школьников
Общество
7 часов назад

Эксперты предупреждают о социальных рисках ИИ: возможна массовая потеря рабочих мест
Технологии
3 часа назад


+1
Сэм Альтман предсказывает, что ИИ займет пост гендиректора OpenAI в ближайшие годы
Технологии
1 день назад


+1
Пациент Neuralink управляет беспилотником силой мысли
Технологии
1 день назад


+6
Узбекистан и Китай совместно развивают цифровую трансформацию с NVIDIA
Общество
12 часов назад

