Душа Питона
20.06.2025 11:01
1 Сбер анонсировал запуск международной платформы BRICS+ AI Success Hub. Это будет база кейсов по внедрению AI в различные отрасли экономики. Инициатива ускорит сотрудничество и обмен опытом между странами БРИКС. Партнёр — Глобальный альянс по AI при ЮНИДО. 2 «Школа 21» запустила лендинг-тренажёр для проверки навыков общения с нейросетями. Пользователи смогут потренироваться писать промпты для GigaChat, получат оценку качества запроса и советы по его улучшению. Протестировать можно по ссылке. 3 Сбер развернёт AI-платформу на базе Почты России. Компании протестируют сценарии применения GigaChat для улучшения обслуживания клиентов. 4 Администрация Санкт-Петербурга договорилась со Сбером о внедрении GigaChat в сервисы ЕИРЦ СПБ — платёжного агента по расчётам ЖКУ. Нейросеть будет помогать сотрудникам обрабатывать обращения граждан, а также готовить отчётность. 5 Lada Azimut станет первой моделью со встроенным голосовым ассистентом GigaChat. С его помощью можно будет совершать звонки, управлять музыкой, навигацией и парковочной системой без касаний экрана. Запуск серийного производства запланирован на 2026 год. 6 В GigaChat добавили режим «Глубокое исследование». Нейросеть научилась анализировать информацию из интернета и составлять подробные отчёты на любые темы. Теперь сбор данных из проверенных источников займёт всего пару минут. В навигации по ПМЭФ вам поможет наш AI-помощник
Душа Питона
19.06.2025 12:30
На ПМЭФ представили режим «Глубокое исследование» в GigaChat Новая функция поможет с задачами, требующими основательного погружения. С помощью «Глубокого исследования» вы можете собирать информацию из надёжных источников, проводить аналитику по заданной теме и получать подробные отчёты. Ранее для этого требовалось: изучать десятки статей в интернете отсеивать нерелевантные публикации вручную структурировать материалы ⏱ Итог: 2–3 часа при благоприятных условиях Теперь процесс выглядит так: открываете GigaChat вводите запрос по интересующей теме нажимаете на кнопку «Режим» → «Провести исследование» под полем ввода выбираете тон: объективный, академический или другой получаете подробный ответ с кратким содержанием статей и ссылками на первоисточники ⏱ Итог: менее 5 минут на исследование Пробуйте новый режим по ссылке, а тест смотрите в ролике — поможет быстрее разобраться в сути
Душа Питона
31.05.2025 08:01
Veo 3 — генеративная модель с озвучкой и 4K-рендерингом На ежегодной конференции Google I/O 2025 представили Veo 3 — одну из самых технологически продвинутых моделей для генерации видео. Что нового: улучшенные физический рендеринг и поведение объектов поддержка 4K-вывода — больше деталей и глубины повышенная точность исполнения промптов в сравнении с прошлой версией автоматическая генерация речи, включая диалоги и закадровый голос встроенная функция генерации звуковых эффектов и музыки Veo 3 «понимает» визуальный контекст. Модель анализирует исходные пиксели и автоматически подбирает звуки к сцене. Это одно из её главных отличий от конкурентов. Вероятнее всего, модель обучали на видеоданных с YouTube, однако Google не раскрывает источников. В основе аудиофункций — наработки DeepMind в области video-to-audio AI, анонсированные в 2024 году. Именно они позволили модели не просто накладывать звук, а полноценно режиссировать сцены. Что думаете? Оставляйте реакции Видео: Google DeepMind
Душа Питона
29.05.2025 15:04
В GigaChat появился генеративный фоторедактор Новая функция позволяет изменять изображение по текстовому описанию. В её основе Malvina — диффузионная модель GigaChat Vision 9B , обеспечивающая локальное попиксельное редактирование без искажения исходного изображения. Добавлены возможности: Удаление объектов и дефектов люди, провода, искажения, шум Замена фона, интеграция новых объектов и деталей Восстановление и раскрашивание старых или повреждённых фотографий Изменение внешности причёска, макияж, аксессуары Цветокоррекция и стилистическая обработка изображений Для обучения использовано более 11 млн изображений: сначала pretrain на 10 млн, затем тонкая настройка на 1,4 млн. В сравнении с Gemini, модель продемонстрировала более высокую точность и естественность при редактировании, особенно при изменении стиля, фона и мелких деталей. В side-by-side тестах с участием людей Malvina стабильно выбирали как более точную и аккуратную модель. Протестировать функцию можно здесь
Душа Питона
12.05.2025 12:15
Скрепку из MS Office 1997 превратили в AI-помощника Хотя обновлённый Clippy по-прежнему выглядит как винтажная программа из 90-х, теперь он помогает запускать LLM. Нужно только скачать приложение и указать путь к модели — всё остальное помощник сделает сам. Он даст справку о модели, подскажет шаги и запустит её в интерфейсе Скрепки из 90-х. Особенности: поддерживает Windows, macOS, Linux написан на TypeScript и Shell не требует установки работает офлайн обновления можно отключить подбирает способ запуска Metal, CUDA, Vulkan Исходный код доступен бесплатно на GitHub. — если знали, что Скрепка вернётся Видео felixrieseberg
Душа Питона
07.05.2025 10:40
DeepSeek выпустила Prover V2 — LLM на 671 млрд параметров для решения математических и логических задач Что в основе: Язык программирования Lean4 8 млрд синтетических примеров от DeepSeek V3 RL-обучение с обратной связью «верно/неверно» Есть облегчённая версия Prover V2 7b с расширенным контекстом до 32 000 токенов в предыдущей было всего 4 000 . Модель прошла бенчмарк ProverBench из 325 задач по алгебре, теории чисел и комплексному анализу, в том числе из соревнований AIME 24 и 25. А в тесте MiniF2F, состоящем из олимпиад для студентов и старшеклассников, показала 88,9% точности. Такого результата модель достигает благодаря масштабной архитектуре и узкой специализации на доказательствах в различных разделах математики. Имеет ли Prover V2 шансы стать популярной в автоматизации математических расчётов? Будем тестировать Подробнее на GitHub.
Душа Питона
17.04.2025 12:19
Сбер открыл приём заявок на ежегодную научную премию. Награда присуждается учёным, работающим в России, за выдающиеся достижения последних 10 лет и вклад в развитие отечественной науки. Победители получат аж по 20 млн рублей! Также предусмотрены спецноминации для молодых учёных, совершивших яркий научный прорыв в AI за последние пять лет. Приз — 4,5 млн рублей на команду + 1 млн на облачные вычисления Обожаю такие инициативы Буду следить и ждать имена победителей
Душа Питона
15.04.2025 12:45
OpenAI выпустила GPT-4.1: фокус на разработчиков Пока все ждут GPT-5, OpenAI представила обновлённую мультимодальную модель GPT-4.1, которая, по заявлению компании, превосходит прошлую версию практически во всём Что нового: 1 GPT‑4.1 уже доступен для разработчиков вместе с двумя младшими моделями — Mini и Nano. Теперь они лучше справляются со сложными задачами и следованием инструкциям при разработке ПО 2 Все три модели могут обрабатывать до 1 млн токенов, что на 800 000 токенов больше, чем у GPT-4 3 GPT-4.1 на 26% дешевле прошлой версии. Похоже, что гонка за снижением стоимости обострилась после выхода DeepSeek 4 OpenAI планирует отказаться от GPT‑4, а также от демо GPT‑4.5 в API — новая версия предлагает лучшую производительность с меньшими затратами Задержку GPT-5 в OpenAI объясняют тем, что интегрировать модель оказалось сложнее. Зато уверяют, что скоро выйдут полные версии reasoning-моделей: o3 и o4 mini Изображение OpenAI
Душа Питона
10.04.2025 09:39
Quake II вернулся благодаря AI Ты можешь бегать, прыгать, стрелять и даже находить секретки — только вот ты играешь не в сам Quake II, а в его симуляцию внутри нейросети Microsoft выложила демо своей модели WHAMM World and Human Action MaskGIT Model . Она создана на базе Muse — семейства моделей от Microsoft, которые обучаются симулировать поведение игрового мира, исходя из действий геймера Новая версия куда шустрее предшественницы: 10 кадров в секунду против одного и удвоенное разрешение 640×360 вместо 300×180 . Дело в архитектуре. WHAMM генерирует токены не последовательно, а параллельно, что позволяет взаимодействовать с ней в реальном времени На обучение ушла неделя игры профи-тестеров. Прошлой версии на это потребовалось аж семь лет геймплея. Зато всё как в настоящем Quake II, но с нюансами. Враги порой размыты, здоровье хаотично, а если долго смотреть в небо, то можно телепортироваться. Есть и забавные глюки: в этой симуляции ты можешь буквально закрыть глаза, отвернуться — и враг исчезнет хотели бы такое в реальной жизни? . Причина — в узком контекстном окне в 0,9 секунд 9 кадров по 10fps , модель просто забывает, что было секунду назад. Поиграть можно тут Возможно, на наших глазах зарождается новый жанр самосоздающихся игр, где будут сталкиваться реальные и AI-игроки
Душа Питона
22.03.2025 05:05
Камеры в AirPods: что скрывается за новым функционалом Из музыкального девайса Apple превращает эйрподсы в AI-помощника по визуалу. “Уши” смогут "видеть" окружающий мир и помогут ориентироваться, даже не доставая смартфон из кармана Как это будет: можно спросить Siri про то, что видишь, повернув голову в нужную сторону насладиться объёмным звуком, который адаптируется под положение в пространстве интеграция с Visual Intelligence и системой Vision Pro Правда, ждать эту новинку придётся долго — примерно до 2027 года. Скорее всего, она появится только в AirPods Pro 4 Изображение создано для канала Душа Питона с помощью Kandinsky 3.1