OmniHuman
OmniHuman-1 — система искусственного интеллекта от китайской компании ByteDance, представленная 4 февраля 2025 года. Сквозная мультимодальная структура предназначена для генерации персонализированных реалистичных видеороликов на основе одной фотографии и аудиофрагмента (например, речи или вокала). Возможно создание видео любой длительности с настраиваемым аспектным соотношением и пропорциями тела[1].
Общие сведения
| OmniHuman-1 AI | |
|---|---|
| Тип | частная компания |
| Основание | 4 февраля 2025 |
| Основатели | ByteDance |
| Отрасль | Искусственный интеллект |
| Сайт | omnihuman.cc |
История
Технологии анимации человека (генерации говорящего на основе аудиодорожки) были распространены и до выхода OmniHuman-1, однако подобные дипфейки выглядели неестественно и содержали артефакты цифрового изображения, несовпадение мимики и другие факторы, позволяющие понять, что видео сгенерировано ИИ[2].
Инженеры ByteDance использовали для обучения OmniHuman-1 более 18 700 часов видеоматериалов с участием людей и воспользовались новым методом под названием «всеобщие условия». Он включает в учебный процесс разнообразные входные данные: текст, аудиосигналы и двигательные паттерны[3].
При этом команда ByteDance сообщает о продолжении работы над системой, которая сейчас ограничена, например, исходными данными. Так, низкое качество загружаемой фотографии скажется на реалистичности готового видео. Также ИИ испытывает трудности с генерацией определённых поз и жестов[4].
Технические особенности
Отличительной особенностью является то, что OmniHuman-1 способен генерировать видеоролики в полный рост. Жестикуляция и мимика соответствует произнесённой речи (предыдущие версии ИИ могли анимировать лишь лица или верхнюю часть тела). Поддерживает несколько форм ввода движения:
- Управление звуком — генерирует синхронизированные движения губ и жесты на основе речевого ввода;
- На основе существующего видео — воспроизводит движение из эталонного видео;
- Мультимодальное слияние — объединяет аудио- и видеосигналы для точного управления различными частями тела[5].
Оценка OmniHuman-1 по сравнению с ведущими моделями анимации (включая Loopy, CyberHost и DiffTED):
- Точность синхронизации губ (чем выше, тем лучше):
- OmniHuman-1: 5.255
- Loopy: 4.814
- CyberHost: 6.627
- Расстояние Фреше (FVD) (чем меньше, тем лучше):
- OmniHuman-1: 15.906
- Loopy: 16.134
- DiffTED: 58.871
- Выразительность жестов (HKV metric) :
- OmniHuman-1: 47.561
- CyberHost: 24.733
- DiffGest: 23.409
- Точность жеста руки (HKC) (чем выше, тем лучше):
- OmniHuman-1: 0,898
- CyberHost: 0.884
- DiffTED: 0.769[5]