6 сентября, 14:15
Новая нейросеть Reflection 70B превосходит конкурентов и выходит в открытый доступ
Эксплойт
ChatGPT убила БЕСПЛАТНАЯ модель — Reflection 70B только что стал новым королём нейросетей. — Модель разорвала GPT-4o, Claude 3.5 и другие модели. Альтман и команда в шоке; — ИИ умеет думать и исправлять свои же ошибки на ходу; — На следующей неделе выпустят версию 405B, которая официально станет самой мощной нейронкой в мире; — БЕСПЛАТНО и прямо у вас на компьютере. Сама модель здесь, играемся в браузере здесь сайт может упасть от наплыва .
Технологии73 дня назад
Хайтек+
HyperWrite выпустила самую мощную открытую БЯМ: она исправляет саму себя Стартап HyperWrite представил новую большую языковую модель Reflection 70B. Она основанная на Llama 3.1-70B Instruct от Meta компания признана экстремистской и запрещена в РФ и выделяется инновационным методом самокоррекции ошибок. Это решает проблему галлюцинаций и повышает точность ответов. В тестах Reflection 70B превзошла модели Llama, а разработчики называют ее «лучшей в мире моделью ИИ с открытым исходным кодом». Reflection 70B уже доступна для загрузки, а в ближайшее время планируется запуск еще более мощной модели Reflection 405B, которая, как ожидается, составит конкуренцию лидерам индустрии ИИ, например, GPT-4o.
Технологии73 дня назад
Tehnobzor: IT Технологии
Новая мощная нейросеть, которая может заменить ChatGPT. В открытый доступ вышла Reflection 70B — нейронка превосходит даже GPT-4o и Claude 3.5 Sonnet, а главное — способна исправлять свои же ошибки на ходу. Работает бесплатно, установить можно здесь, а здесь — попробовать прямо в браузере. Tehnobzor: IT Технологии
Технологии67 дней назад
Data Secrets
Интернет взрывает новая модель Reflection 70В от Meta: она выбивает на бенчмарках результаты, превосходящие Claude 3.5 Sonnet и GPT-4o Название Reflection выбрано в честь метода Reflection-Tuning: это когда модель итеративно обучается на синтетических структурированных данных, чтобы научиться рассуждать и самокорректироваться. Плюсом добавлен отдельный этап планирования для улучшения CoT. В качестве инициализации брали Llama 3.1 70B. На практике модель прямо в ответах оборачивает все рассуждения в тег <reasoning>, а возможные ошибки в тег <reflection>. Затем она обнаруженные ошибки исправляет, и итоговый ответ выдает в теге <output>. Результаты на бенчмарках: 89,9% MMLU, 79,7% MATH, 90,1% IFEval, 99.2% GSM8K. Говорят, что тот самый синтетический датасет и техрепорт будет на следующей неделе. А еще на следующей неделе обещают Reflection на 405В Сама модель уже доступна на HuggingFace.
Технологии73 дня назад
Похожие новости
Пользователь успешно обманул ChatGPT, заставив его показать средний палец
Технологии
1 час назадХакатон по искусственному интеллекту собрал студентов и экспертов в Санкт-Петербурге
Общество
1 час назад +5
Сережа Мезенцев на Yandex ML Prize: Встреча с учеными раскрывает роль науки в ИИ
Общество
1 день назад +3
Starknet увеличивает TPS в 4 раза и снижает комиссии в 5 раз
Экономика
1 час назад +1
Эксперты Сбера провели урок по искусственному интеллекту в российских школах
Общество
6 часов назад +5
Переписка Маска и Альтмана раскрывает детали конфликта вокруг AGI
Технологии
1 день назад