6 сентября, 14:15
Новая нейросеть Reflection 70B превосходит конкурентов и выходит в открытый доступ


Эксплойт
ChatGPT убила БЕСПЛАТНАЯ модель — Reflection 70B только что стал новым королём нейросетей. — Модель разорвала GPT-4o, Claude 3.5 и другие модели. Альтман и команда в шоке; — ИИ умеет думать и исправлять свои же ошибки на ходу; — На следующей неделе выпустят версию 405B, которая официально станет самой мощной нейронкой в мире; — БЕСПЛАТНО и прямо у вас на компьютере. Сама модель здесь, играемся в браузере здесь сайт может упасть от наплыва .
Технологии211 день назад


Хайтек+
HyperWrite выпустила самую мощную открытую БЯМ: она исправляет саму себя Стартап HyperWrite представил новую большую языковую модель Reflection 70B. Она основанная на Llama 3.1-70B Instruct от Meta компания признана экстремистской и запрещена в РФ и выделяется инновационным методом самокоррекции ошибок. Это решает проблему галлюцинаций и повышает точность ответов. В тестах Reflection 70B превзошла модели Llama, а разработчики называют ее «лучшей в мире моделью ИИ с открытым исходным кодом». Reflection 70B уже доступна для загрузки, а в ближайшее время планируется запуск еще более мощной модели Reflection 405B, которая, как ожидается, составит конкуренцию лидерам индустрии ИИ, например, GPT-4o.
Технологии211 день назад


Tehnobzor: IT Технологии
Новая мощная нейросеть, которая может заменить ChatGPT. В открытый доступ вышла Reflection 70B — нейронка превосходит даже GPT-4o и Claude 3.5 Sonnet, а главное — способна исправлять свои же ошибки на ходу. Работает бесплатно, установить можно здесь, а здесь — попробовать прямо в браузере. Tehnobzor: IT Технологии
Технологии204 дня назад



Data Secrets
Интернет взрывает новая модель Reflection 70В от Meta: она выбивает на бенчмарках результаты, превосходящие Claude 3.5 Sonnet и GPT-4o Название Reflection выбрано в честь метода Reflection-Tuning: это когда модель итеративно обучается на синтетических структурированных данных, чтобы научиться рассуждать и самокорректироваться. Плюсом добавлен отдельный этап планирования для улучшения CoT. В качестве инициализации брали Llama 3.1 70B. На практике модель прямо в ответах оборачивает все рассуждения в тег <reasoning>, а возможные ошибки в тег <reflection>. Затем она обнаруженные ошибки исправляет, и итоговый ответ выдает в теге <output>. Результаты на бенчмарках: 89,9% MMLU, 79,7% MATH, 90,1% IFEval, 99.2% GSM8K. Говорят, что тот самый синтетический датасет и техрепорт будет на следующей неделе. А еще на следующей неделе обещают Reflection на 405В Сама модель уже доступна на HuggingFace.
Технологии211 день назад
Похожие новости



+20






+5



+7



+1



+16

GPT-4.5 демонстрирует наивысшие результаты в трехстороннем тесте Тьюринга
Технологии
18 часов назад




OpenAI представила новый голос для ChatGPT: «Понедельник»
Технологии
1 день назад



Tinder запускает ИИ-игру для тренировки навыков флирта
Технологии
1 день назад




Яндекс запускает Нейроэксперта для анализа документов и медиафайлов
Технологии
6 часов назад




Intel анонсирует рискованное производство на 18A и массовое производство 3-нм чипов в Европе
Технологии
14 часов назад




Заволжский моторный завод запускает производство новых механических коробок передач для Sollers и УАЗ
Технологии
1 день назад


