NeuroADEPT
22.10.2025 12:03
MR стал первым российским девелопером создавшим серию мультфильмов с помощью искусственного интеллекта В основе сюжета приключения двух семей одна из которых живет в городе другая в МЫСе семейном природном кластере в Одинцовском районе Хакатон среди ИИ художников помог разработать очаровательных героев мысликов Анна Борисенко ставшая автором мультфильмов отметила интересный опыт создания целой вселенной персонажей в которых узнают себя и взрослые и дети Смотрите на Rutube x ВК x Телеграм Проектная декларация на наш дом рф
NeuroADEPT
20.05.2025 19:49
Google дропнула РЕВОЛЮЦИЮ — Veo 3 не просто генерирует видео в 4К, а добавляет ЛЮБЫЕ звуки, реплики персонажей и целые диалоги. Доступ уже открыли — тут.
NeuroADEPT
23.04.2025 19:24
OpenAI открыли Images API c моделью GPT-Image-1 — и это не просто «DALL-E 4», а реально новый зверь. Три пресета качества. Low ≈ $0.02, Medium ≈ $0.07, High ≈ $0.19 за квадрат 1024×1024 px. Для бизнеса это всё ещё дешевле, чем отрисовать руками, но дороже DALL-E 3-HD. Yahoo Finanz notícias Для ориентира: Google Imagen 3 в Gemini API — $0.03, Recraft V3 на Segmind — $0.04-0.05. Home- Google Developers Blogsegmind.com Размеры без танцев: square — 1024 × 1024 wide — 1792 × 1024 tall — 1024 × 1792 OpenAI Community Архитектура. Модель нативно мультимодальная, работает авторегрессивно, а не через диффузию, поэтому лучше пишет текст на картинке и впитывает знания мира прямо из ядра GPT. The Verge Интеграции уже в пути. Adobe Firefly, Express, Figma Design, Canva, Instacart — все подключают API, значит картинка-по-промпту станет дефолтом в продакшене. The Verge Безопасность. Каждое изображение получает C2PA-метаданные, плюс знакомые фильтры контента. The Verge Что это значит на практике? Low-режим можно юзать как быстрый эскиз-генератор: копейки, но промпты всё равно «понимает». Medium закрывает типовые продакшн-случаи без пост-обработки. High — для рекламы и креативов, когда нужен пиксель-пёрфект и бюджет не жмёт. Конкуренты пока сбоку; как только Gemini 2.5 или Midjourney V8 подвинутся, ценник у OpenAI опустится — маржа позволяет.
NeuroADEPT
16.04.2025 17:44
Релиз OpenAI o3 и o4-mini — Состоялся переход на качественно иной уровень архитектуры и применения. Главное изменение: обе модели изначально обучены работать с инструментами прямо внутри reasoning-процесса. Не как отдельный модуль, а как часть мышления. Это означает, что модель может динамически подключать веб-поиск, выполнять код, интерпретировать изображения — прямо во время рассуждения, а не постфактум. Это не «модель с доступом к тулзам» — это архитектура, в которой инструменты становятся продолжением мыслительного процесса. Подход, напоминающий когнитивные схемы в системах с агентной логикой. Обе модели мультимодальны — но не в смысле «умеют работать с картинками», а в смысле, что изображение становится частью reasoning. Пример: модель может прочитать текст с фото, интерпретировать график, сгенерировать код, и всё это в рамках одного вывода, не теряя контекст. Производительность: На бенчмарках o3 обходит даже свежий Gemini 2.5 Pro Experimental. Что логично — compute-бюджет на её тренировку был более чем в 10 раз выше, чем у o1. Более того, o3 решает те же задачи меньшим числом токенов. Экономия не просто в цене, а в вычислительной структуре. Поэтому OpenAI планирует полностью заменить o1 на o3. Цены и доступ: o3 в API стоит $10/$40 за миллион токенов ввод/вывод — это на треть дешевле o1 и в 15 раз ! дешевле o1-pro. o3-mini стоит как o4-mini — $1.1/$4.4, но по token-to-performance выигрывает даже там. Модели начинают появляться в ChatGPT Plus и Pro с сегодняшнего дня, шире — через неделю. o3-pro анонсирована, но появится чуть позже. Ключевая особенность — это не просто языковая модель, а когнитивный стек с инструментами. Такая архитектура даёт выход за рамки LLM как ответчика: теперь это вычислительный агент, способный решать задачи end-to-end. Для практики это означает новую скорость, глубину и автономность решений.
NeuroADEPT
15.02.2025 06:40
Perplexity представила Deep Research — свой новый инструмент для глубокого анализа данных. Теперь алгоритм выполняет углубленный анализ и выдаёт результат за пару. Из подробностей: — Анализирует до 100 сайтов на запрос, в то время как OpenAI использует максимум 5-20. — Генерирует полноценные исследования за 1-2 минуты. — Бесплатно — 5 запросов в день. Для сравнения: OpenAI предлагает 10 запросов в месяц за $20. — Экспорт в PDF сразу после генерации. Результаты тестов: — SimpleQA фактическая точность ответов – 93,9%, выше, чем у Gemini, Claude и DeepSeek. — "Последний экзамен человечества" – 21,1% перевешивает показатели GPT-o1 и Gemini Thinking . Выбираем в списке Deep Research и пробуем — здесь.
NeuroADEPT
12.02.2025 15:12
Вышла долгожданная Adobe Firefly Video Model. Adobe представила первую генеративную видеомодель ИИ, которая коммерчески безопасна и защищает права создателей. Теперь Firefly объединяет видео, изображения и векторную графику в одном инструменте, что круто упрощает креативный процесс. Что нового? — Генерация видео по текстовому описанию — Превращение изображений в анимированные сцены — Автоперевод аудио на разные языки — Глубокая интеграция с Photoshop, Illustrator и Premiere Pro В отличие от многих ИИ-моделей, Firefly обучена на лицензированном контенте, но самое приятное, что инструмент доступен для всех бесплатно. Тестим тут.
NeuroADEPT
12.02.2025 14:01
ИИ кинематограф уже здесь: Veo 2 и будущее видеопродакшена Недавно один парень сделал полностью сгенерированную рекламу Porsche. Но ему показалось этого мало — он создал фейковый бэкстейдж, где рассказывает о «команде, которая снимала ролик». Единственное реальное в видео — он сам перед камерой. Все сцены, постановка, освещение — это генерация нейросети Google Veo 2. Один человек за пару недель создал то, что раньше требовало месяцы работы и сотни тысяч евро. Мы на пороге революции. Готовы?
NeuroADEPT
11.02.2025 16:50
Вышла нейросеть Zonos для генерации речи с моментальным клонированием голоса. Американский стартап Zyphra выпустил бесплатную бета-версию модели для клонирования голоса. Её главные фишки: — Достаточно короткого аудиофрагмента от 10 до 30 секунд. — Полный контроль — можно регулировать скорость, тон, тембр, высоту голоса и даже эмоции. — Можно добавить префиксы — детали, которых не даёт простое клонирование голоса. Это шёпот, интонация и другие нюансы. — Всё это работает в браузере без ограничений, плюс есть локальная версия на Github. Из минусов: она пока не может озвучить русскоязычный текст, но копирует голоса с аудиозаписей на русском.
NeuroADEPT
10.02.2025 17:06
ByteDance представили Goku+. Китайцы показали новую модель для генерации видео, самое интересное: — Генерирует реалистичную мимику и движения рук; — Заточена под рекламу, есть отдельная модель Goku+ для нативного размещения товаров в сцена. По уровню реализма Goku+ не уступает Sora, но ориентирована больше на коммерческий контент. С помощью Goku+ можно будет делать сериалы, фильмы и даже заменить блогеров. Все работает в два клика и с помощью коротких промтов. Когда модели станут доступны, не уточнили, но можно посмотреть больше примеров.
NeuroADEPT
09.02.2025 13:33
Личный ИИ-охранник от Pika. В твиттере вирусится последний апдейт Pikadditions — фичи, которая добавляет любые объекты к видео. Парень прогулялся по улице с личной охранной, а в конце — дал пять хомячку благодаря ИИ-функции «дополнение». Протестировать можно здесь.