Innovation & Research
20.11.2025 04:56
UBTech начала массовые поставки антропоморфных роботов Walker S2 на заводы получены заказы на 113 млн UBTech Robotics КНР первой в мире запустила массовое производство и уже отгрузила сотни человекоподобных роботов Walker S2 в реальные производственные цеха В числе заказчиков автопроизводители BYD Geely FAW Volkswagen Dongfeng и крупнейший в мире производитель электроники Foxconn он планирует использовать роботов для логистики С июля Walker S2 пилотно эксплуатируется на предприятиях и уже показал определенную пригодность Робот может самостоятельно менять аккумулятор сводя простой к минимуму и предназначен для круглосуточной работы Он способен сортировать детали перемещать грузы и работать на конвейере До конца года UBTech поставит 500 роботов а годовая производственная мощность превысит 1 000 единиц Всего в 2025 году компания получила заказы на сумму более 113 млн Крупнейшая сделка на 35 млн от неназванной китайской корпорации Второй по величине контракт на 22 4 млн от компании из провинции Сычуань Среди других заказов дата центр в Гуанси 17 7 млн и автопроизводитель Miee Auto 14 млн Продажи роботов UBTech резко растут в 2024 году они составляли 10 выручки сейчас уже 30 Несмотря на чистый убыток в 62 млн за первое полугодие компания увеличила выручку на 27 5 до 87 5 млн и сократила убытки на 18 5 Акции UBTech с начала года выросли на 150 UBTech прогнозирует что через 2 3 года такие роботы начнут выполнять более сложные задачи через 5 лет работать в сервисе а через 8 10 лет появятся в домах На фоне растущей конкуренции с Agibot Xpeng и Tesla Китай готовится к масштабному выпуску антропоморфных машин Walker S2 уже делает этот рынок реальностью news роботы www techeblog com ubtech walker s2 humanoid robot mass production delivery
Innovation & Research
17.11.2025 04:59
Google представила Nested Learning архитектуру которая учится как мозг Google Research представила Nested Learning новый подход к обучению AI позволяющий моделям осваивать новые задачи без потери старых знаний Архитектура и алгоритм обучения работают как единая система вложенных оптимизаций с разной скоростью обновления Модель Hope с 1 5 млрд параметров уже входит в тройку лучших среди всех моделей объёмом до 3 млрд Она превосходит Titans 1 8B Samba 1 9B RWKV 7B и Llama 3 1 8B по качеству языка уверенно держит контекст объёмом 128 тыс токенов и осваивает 5 новых задач подряд без забывания Это первый пример постоянного обучения без использования механизма повторного воспроизведения replay метод адаптации модели с малыми ресурсами LoRA и регуляризации где забывание устранено на уровне самой архитектуры В основе Nested Learning лежит идея памяти как системы модулей с разной частотой обновления Быстрые компоненты реагируют на каждый токен а медленные изменяются лишь после миллионов шагов Такой принцип вдохновлён работой человеческого мозга где разные зоны действуют на собственных временных ритмах Hope показывает лучшие результаты в задачах с длинным контекстом языкового моделирования и логических рассуждений Она стабильно превосходит Mamba2 и TTT в задачах поиска нужной информации в длинном контексте needle in a haystack а по метрикам неопределённости модели и точности показывает лучшие результаты чем стандартные трансформеры Обучение модели обходится на 35 дороже она реализована только в рекуррентных архитектурах и пока не внедрена в промышленные системы Уже проведены 3 независимые репликации включая Mistral AI продукт организации которая запрещена в России и признана экстремистской news бигтехи AI research google blog introducing nested learning a new ml paradigm for continual learning
Innovation & Research
16.11.2025 06:53
Google запускает Ironwood самый мощный AI чип в истории компании Google представила TPU седьмого поколения Ironwood Новый чип в 10 раз производительнее TPU v5p и более чем в 4 раза эффективнее Trillium TPU v6e как для обучения так и для инференса Это первый TPU Google спроектированный в первую очередь для масштабного инференса и нагрузок для AI агентов Ironwood объединяется в суперподы по 9216 чипов с пропускной способностью 9 6 Тбит с через Inter Chip Interconnect В такой конфигурации тысячи чипов работают согласованно и используют общую память объёмом 1 77 ПБ Архитектура масштабируется до сотен тысяч TPU с отказоустойчивой маршрутизацией Каждый чип выдаёт 4614 TFLOPS в FP8 и сравним с Nvidia Blackwell B200 но при этом дешевле и энергоэффективнее Устройства уже используются для Gemini Claude и других AI моделей Anthropic планирует задействовать до миллиона TPU Среди ранних пользователей Lightricks и Essential AI отметившие резкий рост производительности и снижение издержек Также представлены новые VM на чипах Axion N4A и C4A Metal для повседневных задач обслуживания AI инфраструктуры Google продолжает укреплять вертикальную интеграцию и предлагает полный стек решений для обучения и развёртывания моделей news чипы AI cloud google com blog products compute ironwood tpus and new axion based vms for your ai workloads
Innovation & Research
13.11.2025 05:03
Стартап Edison Scientific представил мультиагентную систему Kosmos AI модель для автономного проведения научных исследований За один запуск Kosmos способен прочитать около 1 5 тыс научных статей и сгенерировать до 42 тыс строк анализа кода По заявлению разработчиков это эквивалент 4 6 месяцам работы научной группы Агент уже совершил 7 открытий 4 из которых признаны потенциально новыми а 3 совпали с выводами человеческих исследований недоступных модели во время запуска Система построена по мультиагентной архитектуре Отдельные агенты специализируются на анализе данных и литературе координируясь через центральную модель мира структуру в которой фиксируются гипотезы выводы источники и ходы рассуждений Каждый цикл Kosmos состоит из серии задач после чего обновляется модель мира и запускается следующая итерация В рамках одного запуска агент проходит до 200 таких итераций в течение 12 часов Для оценки точности привлекались внешние эксперты Из 102 проверенных утверждений в отчётах Kosmos 79 4 были признаны корректными Точность выше всего в части анализа данных 85 чуть ниже в обзоре литературы 82 и наименьшая в интерпретациях 58 По оценке академических партнеров глубина и новизна выводов растут с числом итераций после 20 циклов Kosmos формирует до 11 ценных находок большинство из которых демонстрируют умеренную или высокую глубину рассуждений Среди открытий предложение новой молекулярной гипотезы защиты от диабета 2 типа SSR1 выявление причин уязвимости нейронов в энторинальной коре при старении установление роли белка SOD2 в фиброзе миокарда у человека а также независимая репликация ранее неопубликованных результатов в материаловедении и нейробиологии Однако ни одно из открытий пока не прошло полноценной верификации в лабораторных условиях Ключевая особенность Kosmos масштабируемость При увеличении числа итераций линейно растут глубина анализа и объём обрабатываемой информации Тем не менее авторы признают что с ростом числа циклов увеличивается риск ухода в нерелевантные статистически значимые но научно бесполезные направления Стоимость одного запуска Kosmos составляет 200 Платформа уже доступна для ограниченного использования с бесплатным тарифом для исследователей Попробовать платформу Статья в arXiv news AI ИИ для науки edisonscientific com articles announcing kosmos
Innovation & Research
12.11.2025 16:56
Ян Лекун уходит из Meta и запускает собственный стартап Главный исследователь Meta по AI и один из пионеров глубокого машинного обучения Ян Лекун Yann LeCun собирается покинуть компанию чтобы основать собственный стартап Он планирует развивать альтернативные подходы к созданию разумных систем не на основе LLM а через так называемые мировые модели которые учатся на основе видео и пространственных данных По словам людей близких к ситуации он уже начал переговоры с инвесторами Лекун присоединился к Meta в 2013 г и руководил исследовательским подразделением FAIR В последние месяцы компания резко сменила курс Марк Цукерберг свернул долгосрочные исследования и сделал ставку на быстрый выпуск продуктов и гонку за AGI Этим теперь занимается новое подразделение Superintelligence Lab под руководством Александра Ванга Лекун оказался в подчинении у Ванга что по слухам усилило противоречия в организации Лекун не раз критиковал стратегию основанную на языковых моделях Он считает что LLM полезны но неспособны к настоящему мышлению и планированию Его уход может запустить эффект домино за ним могут последовать и другие фундаментальные исследователи Ранее Meta уже покинула вице президент по AI Джоэль Пино а в октябре компания сократила около 600 сотрудников из AI подразделений организация признана экстремистской и запрещена на территории России AI news бигтехи www ft com content c586eb77 a16e 4363 ab0b e877898b70de
Innovation & Research
12.11.2025 05:03
Apple временно интегрирует AI Google для обновления Siri Apple и Google находятся на финальной стадии заключения соглашения согласно которому первая получит доступ к продвинутой AI модели Gemini с 1 2 трлн параметров Она будет использоваться в обновленной версии Siri запуск которой ожидается в iOS 26 4 в 2026 г Размер ежегодных выплат Apple в рамках соглашения оценивается примерно в 1 млрд Внутри Apple проект известен под кодовым именем Glenwood Его курируют создатель Vision Pro Майк Рокуэлл Mike Rockwell и технический директор Крейг Федериги Craig Federighi Обновлённая Siri разрабатывается под кодовым именем Linwood Модель Gemini будет задействована для выполнения отдельных функций Siri включая генерацию ответов и планирование действий так голосовой ассистент сможет справляться с более сложными задачами и многошаговыми командами При этом часть функций Siri по прежнему останется на внутренних AI системах Apple Gemini будет работать на серверах Apple в рамках системы Private Cloud Compute что позволит изолировать пользовательские данные от инфраструктуры Google Соглашение рассматривается как временное Apple продолжает разработку собственной облачной модели с 1 трлн параметров которую планирует внедрить в потребительские продукты уже в следующем году Текущая договоренность с Google необходима для компенсации отставания Siri от конкурентов таких как Alexa и Google Assistant До выбора Gemini Apple тестировала другие сторонние решения включая модели OpenAI и Anthropic Хотя сотрудничество между Apple и Google имеет стратегическое значение стороны не планируют делать его публичным В отличие от сделки по которой Google стал поиском по умолчанию для Safari в данном случае компания будет выступать исключительно как поставщик технологий без явного присутствия бренда в пользовательском интерфейсе Siri Соглашение также не связано с прежними переговорами об интеграции Gemini в Siri в формате полноценного чат бота Эти обсуждения велись в 2024 г и ранее в 2025 м но так и не были реализованы в продукте Кроме того партнёрство не предусматривает включения поиска Google или его AI функций в операционные системы Apple В Китае где сервисы Google запрещены Apple намерена использовать локальные AI решения В частности речь идёт о собственных моделях Apple с дополнительной фильтрацией от Alibaba а также возможном партнерстве с Baidu news AI бигтехи www reuters com business apple use googles ai model run new siri bloomberg news reports 2025 11 05
Innovation & Research
11.11.2025 16:46
Physical AI будет одним из важнейших трендов ближайших лет в искусственном интеллекте Но готово ли к нему образование 13 ноября буду участвовать в дискуссии на YaC E 2025 ежегодной конференции Яндекс Образования Поговорим про новую реальность в которой ИИ становится физическим может анализировать среду учитывать контекст принимать самостоятельные решения и взаимодействовать с миром Интересно разобраться насколько к такому развитию технологий готово сегодня образование и что важно делать школам университетам и бизнесу Мои собеседники Дарья Козлова CEO Яндекс Образования и директор по стратегическому развитию ИТМО Александр Гасников ректор Университета Иннополис Дмитрий Масюк директор Поиска и рекламных технологий Яндекса и Александр Бухановский директор Института искусственного интеллекта ИТМО Трансляцию можно посмотреть онлайн начнем в 10 30 здесь yace yandex ru
Innovation & Research
11.11.2025 05:03
Microsoft потратила 60 млрд на аренду мощностей для AI Microsoft вложила свыше 60 млрд в новые облачные компании которые помогают ей справиться с дефицитом вычислительных ресурсов для AI Эти провайдеры специализирующиеся на аренде серверов с чипами Nvidia позволяют быстро масштабировать инфраструктуру без строительства собственных дата центров Microsoft заключила два новых контракта на 9 7 млрд с Iren и более чем на 2 млрд с Lambda Iren развернёт мощности на кампусе в Техасе а Lambda предоставит доступ к новейшим чипам Nvidia GB300 В проекте с Iren участвует также Dell поставляющая оборудование для дата центров с жидкостным охлаждением Ранее Microsoft инвестировала 23 млрд в британскую Nscale которая обеспечит доступ к 200 тыс GPU на объектах в Европе и США До 19 4 млрд компания направила на контракт с Nebius для поддержки собственных AI систем Более 10 млрд выделено CoreWeave этот провайдер обслуживает как OpenAI так и внутренние AI задачи Microsoft Также известно о сотрудничестве с Oracle задействованной в выполнении AI инференса в Bing но сумма сделки не раскрывается Новые облачные партнёры помогают Microsoft быстрее разворачивать продукты вроде ChatGPT и Copilot обходя узкие места в логистике чипах и электроэнергии тогда как конкуренты вроде Amazon и Google действуют более осторожно news облако бигтехи финансирование www bloomberg com news articles 2025 11 04 microsoft neocloud deals cross 60 billion in ai spending frenzy srnd phx technology
Innovation & Research
10.11.2025 04:59
OpenAI заключила с Amazon контракт на 38 млрд на аренду облачных мощностей OpenAI подписала с Amazon семилетний контракт на 38 млрд и уже начала использовать инфраструктуру AWS для масштабирования AI задач Компания получит доступ к сотням тысяч GPU Nvidia включая GB200 и GB300 с возможностью расширения до десятков миллионов CPU Все мощности планируется ввести в строй до конца 2026 г с возможностью роста в 2027 г и далее Специально под OpenAI AWS развернёт кластеры на базе EC2 UltraServers они объединяют GPU в единую сеть с низкой задержкой что позволяет эффективно распределять вычисления Архитектура рассчитана как на обучение моделей так и на запуск сложных агентных AI нагрузок с гибкостью под будущие потребности OpenAI Недавно компания также заключила облачные соглашения с Oracle на 300 млрд и с Microsoft на 250 млрд Сделка с Amazon стала важным шагом для AWS стремящегося укрепить позиции в AI гонке после замедленного старта и потери части рынка По оценкам общая сумма контрактных обязательств OpenAI перед провайдерами уже превышает 600 млрд Несмотря на выручку около 13 млрд и сохраняющиеся убытки Сэм Альтман прогнозирует рост до 100 млрд В долгосрочной перспективе OpenAI намерена создать инфраструктуру мощностью 30 гигаватт что потребует инвестиций свыше 1 4 трлн news облако бигтехи чипы www aboutamazon com news aws aws open ai workloads compute infrastructure
Innovation & Research
09.11.2025 06:29
Google запустит космические дата центры на TPU в 2027 г Google представила проект Suncatcher спутниковые дата центры с чипами TPU которые работают на солнечной энергии В начале 2027 г компания выведет на орбиту два спутника на каждом из которых установят по четыре TPU Это пилотная миссия для проверки работоспособности оборудования в условиях космоса и отладки связей между устройствами Спутники будут находиться на синхронной с Солнцем орбите на высоте 650 км Такой режим обеспечит постоянное освещение и до восьми раз больше солнечной энергии по сравнению с Землей Вакуум и отсутствие атмосферы позволят эффективно отводить тепло через радиаторы снижая энергозатраты на охлаждение оборудования до 40 Для передачи данных между спутниками Google планирует использовать оптические каналы связи Потенциальная пропускная способность может достигать до 10 Тбит с при плотном спектральном и пространственном мультиплексировании В лабораторных испытаниях прототипа уже достигнута скорость 1 6 Тбит с В будущих полномасштабных кластерах расстояние между аппаратами может составлять всего 100 200 м для обеспечения устойчивой связи но пилотная миссия 2027 г предполагает запуск только двух спутников TPU Trillium V6e успешно прошли радиационные испытания и выдержали дозу в 15 раз превышающую порог для пятилетней миссии Наибольшую чувствительность показала память HBM но частота ошибок остаётся допустимой для большинства задач инференса Google рассчитывает что при снижении стоимости запуска до 200 за кг к середине 2030 х годов затраты на космические вычисления станут сопоставимы со стоимостью электроэнергии в наземных дата центрах 800 1200 за кВт в год Google не единственный игрок в зарождающейся гонке за вычисления в космосе Ранее в этом году на тему орбитальных дата центров высказывались Илон Маск Демис Хассабис и Сэм Альтман В прошлом месяце Starcloud и Nvidia вывели первый H100 GPU на орбиту а бывший CEO Google Эрик Шмидт инвестировал в Relativity Space с той же целью Статья полностью news космос бигтехи ЦОД research google blog exploring a space based scalable ai infrastructure system design