Аватар автора

veryironman

tech

9550 Подписчиков
16 Сообщений
67 Показано сообщений
Не указана Дата добавления
ГлавнаяАвторыveryironman

Информация об авторе

Категория: tech

Последние сообщения автора

Аватар
Новые чипы Nvidia и как они меняют мир На ежегодной конференции GTC компания Nvidia представила сразу несколько интересных новинок: Blackwell Ultra — новая серия чипов, способная обеспечить больший объем данных за меньшее время. Облачные провайдеры могут предлагать премиальные AI-сервисы и повышать доход в 50 раз по сравнению с предыдущими поколениями Hopper. Rubin AI superchip — следующая линейка GPU, ожидаемая в 2026 году. Чипы получили звание в честь астронома Веры Рубин. Впервые Nvidia представила свой собственный маленький процессор Vera, основанный на базовой конструкции, которую они назвали Olympus, который будет работать в два раза быстрее, чем прошлогодний Grace Blackwell. Rubin — это не просто GPU, а двойной чип, способный обрабатывать 50 петафлопс и поддерживать до 288 ГБ быстрой памяти. Nvidia уверенно переходит к ежегодному обновлению своей архитектуры — раньше новый дизайн появлялся раз в два года. Nvidia не просто заряжает железо — компания адаптирует свои чипы под новые «разумные» AI-модели, которые умеют рассуждать и решать сложные задачи. Новые чипы Nvidia оптимизированы именно под «модели рассуждения». Будущая линейка чипов продолжит традицию чествования ученых: пост-Рубинская архитектура, названная в честь физика Ричарда Фейнмана, должна дебютировать в 2028 году. #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Будущее за ИИ Команда Qwen из Alibaba недавно представила QwQ-32B, логическую модель с открытым исходным кодом на 32 миллиарда параметров. Её называют серьезным конкурентом DeepSeek-R1, ведь модель использует значительно меньше вычислительных ресурсов, но не отстает в производительности. Сегодня разберемся, чем уникальна QwQ-32B, почему обучение с подкреплением RL лежит в основе успеха и что это означает для будущего ИИ. QwQ-32B - это последняя версия QwQ. Семейство моделей QwQ было разработано так, что модели могли анализировать и уточнять свои собственные ответы в процессе вывода. Благодаря новому подходу RL QwQ-32B стала лучше: Модель превзошла o1-preview в математических тестах, включая AIME и MATH и GPQA. Улучшено качество выходных данных с помощью проверки кода. Длина контекста составляет 131 072 токена Это модель с открытым исходным кодом под лицензией Apache 2.0. QwQ-32B эффективно работает на графических процессорах с 24 ГБ видеопамяти по сравнению с более чем 1500 ГБ видеопамяти, необходимой для DeepSeek-R1. Преимущество обучения RL: QwQ-32B учится методом проб и ошибок, проверяя корректность своих результатов, прежде чем выдавать их. Второй этап обучения улучшает выполнение инструкций и стратегическое решение проблем, делая модель более адаптируемой. Благодаря усовершенствованию процесса логического вывода модель может быстрее выдавать более качественные ответы. Ожидается, что Alibaba в будущих своих обновлениях уделит основное внимание интеграции агентов ИИ с RL и развитию способности ИИ решать сложные, многоэтапные задачи. Так мы плавно подходим к AGI общему ИИ – а точнее к переходу от статичных LLM к самосовершенствующимся системам ИИ. QwQ-32B доказывает, что RL — это не просто экспериментальная функция, а будущее ИИ. #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Alibaba снова в топе Гонка за создание видео с использованием ИИ стала более напряженной. Wan 2.1 от Alibaba, модель преобразования текста в видео с открытым исходным кодом, призвана бросить вызов Sora от OpenAI. Что интересного в Wan 2.1? В настоящее время модель занимает 1-е место в рейтинге лидеров VBench. Wan 2.1 позволяет пользователям создавать видеоролики, используя текст, изображения или даже другие видеоматериалы в качестве входных данных. Отличительная особенность – имитация сложных реалистичных движений, создавая плавные переходы камеры и динамичную смену сцен. ИИ может даже имитировать физику реального мира, взаимодействовуя с объектами. Модель поддерживает визуальные эффекты, которые не уступают профессиональному кинопроизводству. Wan 2.1 позволяет пользователям вставлять текст как на китайском, так и на английском языках непосредственно в отснятый материал. Модель может генерировать звуковые эффекты и фоновую музыку, синхронизированные с действием на экране. Alibaba выпустила две версии: самая продвинутая из них, Wan 2.1-T2V-14B, обеспечивает высокое качество видео, но требует высокопроизводительных графических процессоров. Для тех, у кого нет доступа к мощному оборудованию, есть также модель Wan 2.1-T2V-1.3B, которая требует всего 8,19 ГБ видеопамяти. Wan 2.1 от Alibaba - одна из самых прорывных моделей видео с использованием ИИ на сегодняшний день. Сделав ее бесплатной и общедоступной, компания позиционирует себя как серьезного конкурента. Однако по мере того, как видео ИИ становится все более реалистичным, этические вопросы становятся все острее. Одно можно сказать наверняка: производство видео с помощью ИИ уже никогда не будет прежним. #Свежак
Открыть в Telegram → Открыть новость на сайте →
Аватар
Гонка ИИ только начинается Anthropic представила Claude 3.7 Sonnet — новую гибридную модель, которая позволяет контролировать, сколько времени ИИ тратит на «размышления» перед ответом. Это значит, что пользователи сами могут выбирать между мгновенным ответом или более взвешенным, «продуманным» вариантом. Одновременно был анонсирован Claude Code — инструмент для автоматизированной разработки ПО с возможностью проверки кода перед его внесением в проект. Хотя OpenAI o3-mini и DeepSeek R1 дешевле, они работают медленнее и не всегда мгновенно отвечают на простые вопросы. В отличие от OpenAI и DeepSeek, которые создают разные модели для разных задач, Anthropic предлагает единое решение, которое адаптируется под запросы пользователей. Результаты говорят сами за себя: 78,2% точности в решении сложных задач на уровне выпускников университетов на уровне GPT-4 Turbo от OpenAI . 81,2% точности в использовании инструментов для розничной торговли TAU-Bench . 93,2% успешности при следовании инструкциям, что превосходит DeepSeek-R1 и OpenAI o3-mini. 62,3% точности в реальных задачах по программированию SWE-Bench , против 49,3% у OpenAI o3-mini. Еще один плюс — несмотря на новые функции, Anthropic сохранила прежние цены.: $3 за 1 млн входных токенов ~750 000 слов $15 за 1 млн выходных токенов ~500 000 слов сгенерированного текста . Что интересного может предложить Claude Code: Анализ кода; Автоматическое исправление ошибок; Тестирование кода и интеграция с GitHub. В отличие от автономных ИИ-разработчиков, Claude Code требует одобрения изменений человеком, что снижает риски ошибок. Ранее Anthropic в своем подходе к разработке делала ставку на безопасность. Однако с выпуском Claude 3.7 Sonnet компания показывает, что готова идти в наступление и конкурировать с OpenAI, DeepSeek и Google. #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Google Veo 2: стоит ли это своих денег? Google объявила цену на свою новейшую видеомодель Veo 2, и она оказалась одной из самых дорогих на рынке. Стоимость — $0,50 за секунду, $30 за минуту или $1 800 за час. Инструмент ориентирован на профессиональных кинематографистов, а не на рядовых создателей контента. Но насколько он лучше конкурентов? Veо была впервые представлена в мае 2024 года, а к декабрю Google выпустила вторую версию, способную генерировать 4K-видеоклипы длиной до 8 минут. Этот инструмент — прямой ответ OpenAI Sora. Что отличает Veo 2? Google позиционирует Veo 2 как инструмент для профессиональных студий, Lionsgate уже заявили о планах использовать ИИ-клипы в фильмах. Одной из главных особенностей модели является гибкость в управлении видеосценой. Пользователи смогут: Задавать ракурсы съемки и стиль. Выбирать оптику и кинематографические эффекты. Создавать сложные операторские движения например, низкоугловую съемку с трекингом персонажа . В начале февраля 2025 года Google открыли доступ к Veo 2 для создателей коротких роликов на YouTube. До этого ИИ-инструменты на площадке ограничивались только фоновыми изображениями с функцией Dream Screen. Теперь же можно создавать отдельные видеоклипы для вставок в видео. Несмотря на такую гибкость, Google признает, что в Veo 2 есть проблемы с согласованностью сцен и сложным движением. Высокие затраты и этические вопросы остаются предметом серьезных споров. Сможет ли Veo 2 стать толчком для развития киноиндустрии с ИИ, или останется нишевым инструментом для студий с огромными бюджетами? #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Новый прорыв в области ИИ? xAI – ИИ-компания Илона Маска выпустили Grok 3. Основные характеристики модели: Работает на базе суперкомпьютера Colossus - системы, созданной всего за 8 месяцев с использованием 100 000 графических процессоров Nvidia H100. Обеспечивает 200 миллионов графических часов обучения. Grok 3 усовершенствован с помощью синтетических наборов данных – обучающих данных, генерируемых ИИ, которые повышают эффективность обучения и решают проблемы конфиденциальности данных. Механизмы самокоррекции позволяют Grok 3 оценивать и совершенствовать свои собственные реакции с течением времени. Можно выделить тонкую настройку ответов человеком в режиме реального времени и более глубокое понимание контекста. Пожалуй, самым неожиданным объявлением Маска стал его план по запуску игровой ИИ-студии. Во время демонстрации Grok 3 Маск показал способность модели создавать базовую игру, похожую на Тетрис, на Python. Не очень понятны планы Маска, его амбиции в области создания динамично генерируемых видеоигр далеки от реализации, особенно учитывая, что Grok 3 все еще использует основы 2D. Первые тесты показали, что Grok 3 - это сильная модель, она превосходит OpenAI ChatGPT-4o и Google Gemini 2.0 по производительности на несколько процентных пунктов, но разница не колоссальная. Хотя xAI показали неплохой результат на сегодняшний день, OpenAI и Google по-прежнему обладают ключевыми преимуществами и мощностями. Главный вопрос заключается в том, сможет ли xAI превратить свой потенциал в реальный продукт? #Свежак #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Дорого, значит эффективно? ИИ традиционно становится одним из самых затратных пунктов инвестиций для компаний. 2025 год не станет исключением. Расходы ведущих ИИ компаний уже выросли на 63%: Microsoft, Alphabet, Amazon и Meta сообщили о совокупных капитальных затратах в размере $246 млрд в 2024 году. В 2025 году прогнозируется, что расходы привысят $300 млрд. Только один Amazon запланировал в этом году инвестиции на сумму более $100 млрд. Несмотря на амбициозные планы и внушительные цифры, у таких новостей есть и обратный эффект. Не все довольны тем, какие суммы идут на развитие ИИ, которое в итоге оказывается дорого разрабатывать, а потом и внедрять. А после первых успехов китайского DeepSeek, который утверждает, что им потребовалось всего два месяца и менее $6 млн на разработку R1, сомнения в целесообразности таких инвестиций только усилились. Во что инвестируют мировые компании? В развитие ЦОД, сетевое оборудование, аппаратные средства, специализированные чипы и многое другое, что необходимо для поддержания спроса на GenAI. Тем временем, вопрос о доходности и целесообразности таких больших инвестиций остается открытым для общественности. #Свежак #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Исследуем по-крупному вместе с ИИ На фоне развития ИИ-агентов и растущей конкуренции, особенно в связи с успехом китайских компаний, OpenAI выпустили свой инструмент для “глубоких исследований”. Deep Research создан для работы в качестве аналитика-исследователя, этот ИИ-агент обещает за считанные минуты выполнить то, на что у людей обычно уходят часы. Используя свою новейшую логическую модель o3, Deep Research позволяет анализировать, синтезировать и генерировать подробные отчеты путем сканирования сотен онлайн-источников, включая текст, изображения и PDF-файлы. В отличие от обычных чат-ботов, Deep Research фокусируется на профессиональных сферах, включая финансы, науку и инженерное дело. Одной из отличительных особенностей является способность создавать проработанные отчеты в течение 5-30 минут, дополненные цитатами из источников. Эта функциональность интегрируется непосредственно в ChatGPT. Эксперты предостерегают от полного перехода на работы, созданные с помощью ИИ без проверки человеком. Несмотря на все технологии, что мы имеем сегодня, необходимость контроля при работе с информацией все еще присутствует. Есть также множество вопросов о глобальном внедрении таких агентов и последствиях для их регулирования. Deep Research — это не просто очередная функция ИИ, это показатель того, что ИИ-агенты будут выполнять все более сложные задачи: от анализа рынка до научных исследований. Это удобно, эффективно и быстро. Однако важно не забывать о том, что нельзя полагаться полностью на автоматизацию в важных вопросах. #Свежак #СверхРазум
Открыть в Telegram → Открыть новость на сайте →
Аватар
Немного статистики по итогам 2024 года Рынок облачной инфраструктуры достиг новых высот: по данным IDC, расходы на вычислительную инфраструктуру и системы хранения данных в третьем квартале 2024 года достигли $57,3 млрд, что на 115,3% больше, чем в 2023. Этот всплеск объясняется ростом спроса на графические процессоры, необходимые для поддержания высоких рабочих нагрузок с использованием ИИ. Общая облачная инфраструктура продолжает доминировать на рынке, на ее долю приходится 62,4% от общего объема расходов в размере $47,9 млрд — неплохой рост на 136,5% по сравнению с предыдущим годом. Объем выделенной облачной инфраструктуры, хотя и рос не так быстро, но все же достиг цифры в $9,3 млрд, что почти в половину больше прошлогодних значений. Если смотреть на картину целиком, ожидается, что по итогам 2024 года: Расходы на облачную инфраструктуру вырастут на 74,3% и достигнут $192 млрд. Совокупный среднегодовой темп роста CAGR составит 24,2%, что приведет к увеличению общих расходов до $325,5 млрд к 2028 году. Расходы на общую облачную инфраструктуру вырастут на 25,2% и составят 79,1% от общего объема расходов на облачные технологии. США и Китай являются самыми быстрорастущими рынками, где темпы роста исчисляются трехзначными цифрами. Спрос на графические процессоры и инфраструктуру ИИ показывает, насколько важными стали облачные платформы для внедрения инноваций. Облачная инфраструктура обеспечивает масштабируемость, гибкость и экономическую эффективность. Такое стремительное внедрение облаков вызывает интерес, но это также требует фокуса на проблемах, связанных с потреблением энергии, стоимостью оборудования и равноправным доступом к облачным технологиям. #Свежак #ОблачноеТехно
Открыть в Telegram → Открыть новость на сайте →
Аватар
Сильный соперник бросает вызов OpenAI Компания DeepSeek вышла на рынок, выпустив свои модели мышления DeepSeek-R1 содержит 671 млрд параметров и DeepSeek-R1-Zero, которые помогают в решении сложных задач. Заявили о себе громко – по результатам тестов, модели не уступают OpenAI и превзошли модели от Anthropic в математических вычислениях, программировании и понимании естественного языка: В тестах AIME 2024 DeepSeek-R1 набрала 79,8% Pass Успешно справилась модель и с проверкой общей эрудиции в тестах MMLU, MMLU-Pro и GPQA Diamond. На платформе Codeforces она получила рейтинг 2029 Elo, обойдя 96,3% участников-людей. R1, как и о1 от OpenAI своим главным конкурентом является моделью рассуждений, она эффективно проверяет факты сама. DeepSeek также выпустили шесть «дистиллированных» версий размером от 1,5 млрд до 70 млрд параметров. Это меньшие версии с использованием более крупной и производительной модели в качестве учителя, чтобы обеспечить им такую же работу, как и большая модель. Среди них выделяется модель DeepSeek-R1-Distill-Qwen-32B, которая превосходит OpenAI O1-Mini по многим показателям. Открытость модели тоже привлекла внимание пользователей: R1 выпустили как «open-weight», то есть исследователи смогут изучать и развивать алгоритм. #СверхРазум
Открыть в Telegram → Открыть новость на сайте →