Hunyuan AI: нейросеть для создания видео и 3D моделей

Хотите создавать видео или 3D модели по тексту? Посмотрите на Hunyuan AI Video. Это свежая, мощная модель (13B параметров), которая делает это очень хорошо. И самое приятное — она бесплатная и с открытым кодом.
Как устроен HunyuanVideo
Принцип работы:
Представьте, что у этой нейросети есть «глаза» для видео и «уши» для текста. Вы просто пишете описание сцены, а она превращает его в короткое видео. Никакой магии — просто умная обработка данных.
Мощность модели:
Это очень большая и сложная система (13+ миллиардов параметров!). Для сравнения: даже знаменитая Sora от OpenAI (которая пока недоступна) использует всего 3 миллиарда. Так что в плане «мозгов» HunyuanVideo — один из лидеров.
Больше инструкций, реальных кейсов и примеров из практики по AI для бизнеса, работы и жизни в Telegram-канале, подпишитесь!

Ссылка: Hunyuan
Что она умеет:
- Делает короткие ролики (до 5 секунд).
- Качество видео — 544p или 720p (достаточно четкое).
- Понимает запросы на английском и китайском. Хотя некоторые пользователи отмечают, что с английским она справляется чуть менее уверенно, чем, например, Runway Gen-3.
- Качество видео при этом отличное: сцены получаются детализированными, с разнообразными объектами, реалистичным движением и светом.
Разработчики говорят, что в их тестах люди чаще выбирали видео от HunyuanVideo, чем от других популярных моделей вроде KLING AI 1.5, Runway Gen-3 Alpha или Luma 1.6.
Как попробовать HunyuanVideo
Модель доступна прямо на сайте Tencent. Из России сайт открывается без проблем.
Но учтите: чтобы зарегистрироваться, вам понадобится китайский номер телефона (с кодом +86). Пока это главное ограничение.
Создаете видео:
После регистрации вы попадете в простой инструмент. Там вы:
- Пишете описание сцены (что должно быть в видео).
- Выбираете настройки: длительность ролика (до 5 секунд), качество видео (544p или 720p).
- Жмете кнопку «Создать».
Ждете результат:
Генерация обычно занимает от 30 секунд до пары минут. Ничего скачивать или устанавливать на компьютер не нужно – все работает прямо в браузере. Через пару минут вы увидите ваше видео!
Как использовать Hunyuan AI через открытые модели?
Главное предупреждение: Требуется очень мощный компьютер!
Видеокарта: Обязательно нужна современная NVIDIA (поддерживающая CUDA).
Видеопамять (VRAM): Это самое строгое требование.
Для видео в качестве 544p нужно больше 45 ГБ видеопамяти.
Для 720p — больше 60 ГБ.
Рекомендуют и вовсе 80 ГБ. Такие карты — редкость и стоят очень дорого.
Где взять всё необходимое?
Исходный код и инструкции: Всё лежит на GitHub (Tencent/HunyuanVideo).
Готовая модель: Можно скачать через HuggingFace (Tencent/HunyuanVideo).
Как установить:
Способ 1: Собрать самому
- Скопируйте проект с GitHub: git clone https://github.com/tencent/HunyuanVideo
- Перейдите в папку проекта: cd HunyuanVideo
- Установите Conda (если нет).
- Создайте и активируйте виртуальное окружение Conda с нужной версией Python.
- Установите PyTorch под вашу версию CUDA (11.8 или 12.4).
- Установите остальные зависимости командой pip install -r requirements.txt.
- Установите дополнительные модули для ускорения (FlashAttention, xDit).
Способ 2: Скачать готовую модель:
- Установите инструмент HuggingFace CLI: pip install «huggingface_hub[cli]»
- Перейдите в папку проекта (cd HunyuanVideo).
- Скачайте модель командой: huggingface-cli download tencent/HunyuanVideo —local-dir ./ckpts. Будьте готовы ждать – файлы очень большие.
Промты для hunyuan video
Примеры генераций и промты
«Low-angle tracking shot following a sleek BMW motorcycles driving on a busy street in New York City. Street lights reflecting off wet pavement».
«Wide shot of the towering glaciers of Patagonia. Condors soaring above and penguins on ice floes. Soft, diffuse light with occasional sunbeams breaking through clouds. Icy blues and whites with the dark silhouettes of the animals».
«Barcelona after the rain: the camera follows a fast car, almost touching the asphalt. The street is burning with an upside down world in puddles».
Коротко о HunyuanVideo:
Это новый инструмент от Tencent, который умеет превращать ваши слова в короткие 5-секундные видео. Просто опишите сцену текстом — и он сделает ролик. Качество видео будет либо 544p, либо 720p. Лучше всего он понимает китайский язык, но и с английскими описаниями тоже работает, хотя результат может быть чуть слабее, чем у некоторых других похожих сервисов.
Попробовать его можно двумя путями. Первый — через сайт Tencent, но для регистрации вам понадобится китайский номер телефона (+86). Второй вариант — поставить программу себе на компьютер. Тут будьте готовы: вам потребуется очень мощная видеокарта (NVIDIA с поддержкой CUDA), причем с огромным запасом видеопамяти — минимум 45-60 ГБ, а лучше 80 ГБ. Такое «железо» встречается редко и стоит немало.
Главный плюс HunyuanVideo — это отличная картинка. Движение объектов, текстуры и освещение в его роликах выглядят очень реалистично и живуче, часто даже лучше, чем у прямых конкурентов. Из минусов — те самые высокие требования к компьютеру для локальной установки и иногда мелкие огрехи в самом видео. Хорошая новость: эти мелкие недочеты обычно легко поправить потом в любом видеоредакторе.
FAQ
Как мне попробовать tencent hunyuan онлайн?
А можно поставить hunyuan 2.0 на свой компьютер?
Что нужно для установки на ПК?
Hunyuan video подходит для коммерческого использования?
Можно ли как-то обойти требование китайского номера для сайта?
Больше инструкций, реальных кейсов и примеров из практики по AI для бизнеса, работы и жизни в Telegram-канале, подпишитесь!