Метаверсище и ИИще
02.09.2025 21:04
Apple только что выпустила FastVLM и MobileCLIP2 на Hugging Face 85 кратный прирост скорости 3 4 кратное уменьшение размера для работы с изображениями и видео в реальном времени на вашем устройстве Субтитры к видео в реальном времени в браузере доступ в облако при этом не требуется Впечатляет huggingface co spaces apple fastvlm webgpu cgevent
Метаверсище и ИИще
29.08.2025 08:03
ябвзял HoverAir выкатила Aqua первую в мире полностью водонепроницаемую самонаводящуюся камеру дрон Она плавает взлетает из воды и снимает видео в формате 4K со скоростью 100 кадров в секунду с автоматическим отслеживанием объекта с помощью носимого маячка Летает до 23 минут на одной зарядке и выдерживает ветер до 50 км ч в час cgevent
Метаверсище и ИИще
28.08.2025 12:54
Вышла новая версия вторая генерации липсинка от sync so Там теперь есть клонирование голоcа и таймлайн Качество сильно подтянули либо сделали очень хорошие черри пики ибо все их предыдущие демо были просто ужасными Мне не очень нравится этот проект и вот почему Есть такая опен сорсная библиотека wav2lip Она основана на коде из статьи A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild опубликованной на ACM Multimedia 2020 Она перестала обновляться 4 года назад А несколько месяцев назад там обновилось Readme Где появилась ссылка на сайт sync so Ну то есть внешне это выглядит плохо мы когда то написали wav2lip бросили ее а теперь расчехлили обратно и хотим денег демонстрируя очень плохое качество Выложили бы немного кода было бы честнее cgevent
Метаверсище и ИИще
21.08.2025 10:12
Исследователи из Стэнфордского университета разработали технологию которая сочетает в себе мозговой имплант и ИИ для расшифровки мыслей а точнее не сказанных а подуманных слов Небольшой чип имплантируется в мозг и записывает нейронную активность Затем алгоритм искусственного интеллекта анализирует эти сигналы и переводит их в слова и предложения Точность распознавания аж 74 процента Ментальный пароль Для обеспечения конфиденциальности и контроля над устройством исследователи внедрили функцию ментального пароля Пользователь должен подумать об определенном слове или фразе чтобы активировать систему Это предотвращает непрерывное считывание мыслей и дает пользователю контроль над тем когда его мысли переводятся в речь Задаем пароль отредактируй картинку и ну работать с Nano Banana или Qwen Image Edit www euronews com next 2025 08 15 a brain computer chip can read peoples minds with up to 74 accuracy cgevent
Метаверсище и ИИще
10.08.2025 18:47
Sama СДУРЕЛ и решил поиграть в Деда Мороза: Plus юзеры теперь получат 3000 запросов к GPT-5-Thinking в неделю! Это кратно больше, чем все reasoning-модели вместе взятые o3 / o4-mini в подписке до этого. GPU для обслуживания пользователей буквально плавятся: Sama сказал, что процент пользователей, получающих ответы от рассуждающих моделей, значительно увеличивается с каждым днем; например, для бесплатных пользователей этот показатель вырос с <1% до 7%, а для Plus-пользователей plus — с 7% до 24%. То есть: 1 средний бесплатный пользователь всё ещё не знаком с рассуждающими моделями но их число растёт -> существенно улучшается опыт 2 до GPT-5 всего 7% Plus овиков пользовалось рассуждающими моделями я думал куда больше 3 а теперь спрос на GPT-5-Thinking подпрыгнул в 3.5 раз и продолжает расти! Это должно существенно улучшить качество ответов для неискушенных пользователей === Напоминаю, что чтобы ваш запрос автоматом отправился в GPT-5-Thinking нужно в конце дописать "Think better" или "think for long" или "Подумай хорошенько над ответом". Ну или проще будет включить этот режим по умолчанию в селекторе сверху. === Хорошо, когда есть цифры. И почти никто раньше не пользовался o3, даже если за неё платили. Для большинства пользователей знакомство с Ризонинг-моделями станет неожиданным расширением возможностей ИИ, а GPT-5 покажется очень большим шагом вперёд при включении Thinking-режима.
Метаверсище и ИИще
08.08.2025 20:15
Альтман твитторнул новую информацию по GPT-5. Мы удвоим лимиты тарифов GPT-5 для пользователей ChatGPT Plus по мере завершения развертывания. Мы позволим пользователям Plus продолжить использовать 4o. Мы будем наблюдать за использованием, пока будем размышлять о том, как долго предлагать старые модели. GPT-5 будет казаться умнее, начиная с сегодняшнего дня. Вчера автосвитчер сломался и был выведен из строя на несколько часов, в результате чего GPT-5 казался намного тупее. Кроме того, мы вносим некоторые изменения в работу алгоритма принятия решений, которые должны помочь вам чаще получать правильные модели. Мы сделаем более прозрачной информацию о том, какая модель отвечает на данный запрос. Мы изменим пользовательский интерфейс, чтобы упростить ручной запуск размышлений. Распространение на всех займет немного больше времени. Это масштабное изменение в больших масштабах. Например, за последние 24 часа трафик нашего API увеличился примерно в два раза...
Метаверсище и ИИще
08.08.2025 16:55
Minimax Speech 2.5 Генератор речи от Минимакс TTS : По сравнению с версией Speech 02, выпущенной в мае, Speech 2.5 обладает тремя новыми фишками: более высокой выразительностью речи на нескольких языках, более реалистичным воспроизведением голоса и широким охватом 40 языков.
Метаверсище и ИИще
11.05.2024 13:52
OpenAI в понедельник вечером покажет презентацию я еще скину ссылку на нее , вот что лично мне кажется покажут спекулятивно : Демку ассистента как из фильма Her Полную мультимодальность: модель будет обучена сразу на видео, аудио, картинках и тексте Размер контекстного окна в 1М Новую архитектуру к новой модели, у которой сразу будут все фишки выше GPT4 обновление с лучшим написанием кода, или 4.5 или 4.1 Новую версию Dalle 3, с улучшенным фотореализмом Ну то есть будет прикольно, но не AGI-прикольно, но все еще ничего. В понедельник сравним насколько я плохо предсказываю вещи планирую как минимум одну угадать, но это максимум
Метаверсище и ИИще
10.05.2024 06:25
Оппаньки, OpenAI похоже сообразили, что упускают огромную долю рынка секстинга, дейтинга и адалт чат-ботов. И собираются сделать галочку "ЯВзрослый". И ну генерить всякие глупости. “We’re exploring whether we can responsibly provide the ability to generate NSFW content in age-appropriate contexts through the API and ChatGPT,” the note says, using a colloquial term for content considered “not safe for work” contexts. “We look forward to better understanding user and societal expectations of model behavior in this area.”
Метаверсище и ИИще
08.05.2024 20:06
DeepMind выпустил Alpha Fold3. Я тот еще биолог, но вот что я вынес из поста в блоге Гугла. Они еще выше повысили точность предсказания формы белков а теперь и не только белков . Они вышли за пределы предсказания только белков и теперь могут предсказывать формы многих молекул. Моделируются большие биомолекулы, такие как белки, ДНК и РНК, а также небольшие молекулы, также известные как лиганды — категория, охватывающая множество лекарств. Кроме того, AlphaFold 3 может моделировать химические модификации этих молекул, которые контролируют здоровое функционирование клеток, разрушение которых может привести к заболеванию. Они заменили старый предсказатель на Дифузионную модель! Теперь она из шума генерит предсказываемую форму пишут, что иногда косячит, но множественные генерации решают . Предсказания AlphaFold 3 о молекулярных взаимодействиях превосходят точность всех существующих систем, в том числе основанных на физике. Они запустил Alpha Fold 3 Server для всех: Судя по описанию - это очень серьезный прорыв. Если в читателях есть настоящие сварщики, напишите в коментах подробности. Ссылки: Блог: Статья в Nature: Видео от двухминутного доктора: Гитхаб: