31 марта компания Google DeepMind официаьно представила Veo 3.1 Lite — свою новую, наиболее доступную модель нейросети для генерации видео. Теперь разработчики могут получить к ней доступ через Gemini API и Google AI Studio. Главное преимущество Veo 3.1 Lite — стоимость создания видео снизилась более чем в два раза по сравнению с версией Veo 3.1 Fast, при этом скорость работы осталась на высоком уровне. Техническая документация с подробностями уже опубликована.
Эта новинка появилась вскоре после того, как OpenAI закрыла проект Sora, оставив Google в основном противостоянии с китайскими конкурентами, такими как Seedance 2.0 от Alibaba. Последний предлагает высококачественную генерацию, но сопровождается проблемами с авторскими правами.
Google позиционирует Veo 3.1 Lite как оптимальный инструмент для массового производства и прототипирования контента. Модель поддерживает генерацию видео из текста и изображений в разрешениях 720p и 1080p, а также форматы портретного (9:16) и ландшафтного (16:9) видео с длительностью роликов 4, 6 или 8 секунд.
Технология основана на архитектуре diffusion transformer (DiT), которая обрабатывает видео как пространственно-временные патчи, а не как отдельные двумерные кадры. Такое решение позволяет нейросети учитывать временные зависимости и работать в сжатом латентном пространстве, значительно экономя вычислительные ресурсы и обеспечивая стабильность освещения, текстур и геометрии на протяжении всего видео.
Кроме того, Veo 3.1 Lite умеет воспринимать команды для кинематографического контроля, например, панорамирование (pan) и наклон камеры (tilt). В ближайшее время Google планирует выпустить обновления для разработчиков. Уже сейчас инструменты на базе Veo интегрируются в продукты компании, включая YouTube Shorts, Google Photos, Google Vids, приложение Gemini и утилиту Flow.
Для автоматизации рутинных задач доступен сервис BotHub, который не требует VPN и поддерживает оплату российскими картами. По специальной ссылке можно получить 300 000 бесплатных токенов для первых задач и сразу начать работу с нейросетями.
