


При създаването на 3D анимация липсата на висококачествени активи за движение отдавна ограничава производството. Традиционните работни процеси разчитат на скъпо улавяне на движение и трудоемко почистване на анимация.

За да преодолее тези бариери, екипът на Tencent Hunyuan изгради HY-Motion 1.0индустриален модел текст към движение, базиран на архитектура на дифузионен трансформатор с милиард параметри. Обучен върху над 3000 часа данни за движение и подравнен чрез обучение за засилване, той преобразува подкани на естествен език – без значение колко неясни са – в плавни, реалистични 3D анимации.
Неговите иновации включват:
- Механизъм за данни, интегриращ оптичен mocap, видео с един изглед и курирани от художник анимации за разнообразно обучение с висока точност;
- Бързо инженерство, задвижвано от моделите Gemini-2.5-Pro и Qwen, за прецизиране на неясни команди („направете танц“) в структуриран английски с точна продължителност;
- Hybrid DiT + Flow Matching архитектура за генериране на физически непрекъснато движение;
- RLHF конвейер за обучение (Предварително обучение → Фина настройка → Обучение с подсилване), осигуряващ както семантична вярност, така и физически реализъм.

В сравнителни тестове, HY-Motion 1.0 постигна SSAE (подравняване на семантична структура) резултат от 78,6%, надминавайки предишните най-съвременни модели.
След отварянето на кода на 30 декември 2025 г., моделът видя бързо приемане сред разработчиците на игри, дизайнерите и аниматорите – интегриран в работните процеси на ComfyUI за генериране на движение в реално време и дори използван като слой за контрол на движението за модели за видео синтез.

Правейки HY-Motion 1.0 с отворен код, Tencent се надява да демократизира висококачествените инструменти за 3D анимация, стимулирайки преминаването на индустрията от „ръчно усъвършенстване“ към „интелигентно генериране“.
Източник: QbitAI
Source link
Like this:
Like Loading…
Нашия източник е Българо-Китайска Търговско-промишлена палaта