7 ноября, 08:50

Google анонсировала новый мощный ИИ чип Ironwood для облачных задач

Bitpapa Media
Google представила свой самый мощный ии чип Ironwood седьмое поколение tpu По данным CNBC он станет доступен всем пользователям уже в ближайшие недели Bitpapa AI
TMT Channel
Google представил свой самый мощный ИИ чип и бросил вызов Nvidia Google официально представила Ironwood свой новый тензорный процессор TPU седьмого поколения Это самый мощный чип компании на сегодняшний день и он уже совсем скоро станет доступен на рынке По данным CNBC Ironwood работает в 4 раза быстрее чем его предшественник и способен объединять до 9216 чипов в одном модуле то есть мощности хватит даже для самых огромных моделей ИИ Этот чип разрабатывали внутри самого Google И он подходит буквально для всего от обучения больших языковых моделей до обслуживания чат ботов и других ИИ сервисов в реальном времени Уже известно что стартап Anthropic создатели Claude собирается использовать до миллиона таких TPU для своих систем Эксперты уже говорят что это шаг в сторону борьбы за лидерство на рынке ИИ где как мы помним сейчас доминирует Nvidia Интересно что бизнес Google Cloud сейчас активно растёт за третий квартал 2025 года выручка выросла на 34 а компания даже повысила прогноз инвестиций в инфраструктуру до 93 млрд В общем судя по всему грядёт новая волна конкуренции за то на чём будет работать ИИ будущего TMT Channel Подписаться
GPT/ChatGPT/AI Central Александра Горного
Google выпустил чип для AI сопоставимый с чипами Nvidia Тензорный процессор Ironwood разработан специально под крупномасштабные модели Он выдает мощность в 4 6 петафлопс что примерно на уровне популярных Nvidia B200 и GB200 Продажи начнут в ближайшие недели Anthropic уже заказал у Google миллион чипов для Claude cloud google com blog products compute ironwood tpus and new axion based vms for your ai workloads
Innovation & Research
Google запускает Ironwood самый мощный AI чип в истории компании Google представила TPU седьмого поколения Ironwood Новый чип в 10 раз производительнее TPU v5p и более чем в 4 раза эффективнее Trillium TPU v6e как для обучения так и для инференса Это первый TPU Google спроектированный в первую очередь для масштабного инференса и нагрузок для AI агентов Ironwood объединяется в суперподы по 9216 чипов с пропускной способностью 9 6 Тбит с через Inter Chip Interconnect В такой конфигурации тысячи чипов работают согласованно и используют общую память объёмом 1 77 ПБ Архитектура масштабируется до сотен тысяч TPU с отказоустойчивой маршрутизацией Каждый чип выдаёт 4614 TFLOPS в FP8 и сравним с Nvidia Blackwell B200 но при этом дешевле и энергоэффективнее Устройства уже используются для Gemini Claude и других AI моделей Anthropic планирует задействовать до миллиона TPU Среди ранних пользователей Lightricks и Essential AI отметившие резкий рост производительности и снижение издержек Также представлены новые VM на чипах Axion N4A и C4A Metal для повседневных задач обслуживания AI инфраструктуры Google продолжает укреплять вертикальную интеграцию и предлагает полный стек решений для обучения и развёртывания моделей news чипы AI cloud google com blog products compute ironwood tpus and new axion based vms for your ai workloads
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Но миром правит Google и вот 1 й чип TPU спроектированный в первую очередь для инференса Ironwood самый мощный TPU на сегодняшний день Он переходит от реактивных моделей к проактивным моделям которые самостоятельно генерируют insights интерпретируют данные и действуют как агенты Ironwood прямой вызов NVIDIA дешевле энергоэффективнее лучше масштабируется для облачных ИИ задач Каждый чип обеспечивает 4614 TFLOPS в FP8 что ставит его на уровень с NVIDIA Blackwell B200 Google утверждает что это самый мощный чип в истории компании и он формирует основу AI Hypercomputer для планетарного масштаба вычислений
Data Secrets
Google наконец официально запускает свой самый мощный ИИ чип Ironwood Его впервые презентовали в апреле Он в 4 раза быстрее Trillium и в нем в 6 раз больше памяти Но самое интересное что чипы способны объединяться в суперпод из 9216 единиц который работает как единый суперкомпьютер Между ними можно сделать all reduce за счет специальной сети Inter Chip Interconnect с огромной пропускной способностью Это значит что память чипов становится фактически общей и синхронизируется между всеми чипами кластера На практике это означает что можно обучать действительно гигантские модели на тысячах чипов как на едином устройстве Уже похоже на что то конкурентноспособное относительно Nvidia