2025.04.15
画像1枚を基に他の動画や音声を参考にして人物の動きや表情を自然に再現するAIモデル「DreamActor-M1」をByteDanceがリリース…
顔の表情・体の動き・目の瞬き・唇の動きなど…単一画像から生成することが可能…
https://grisoon.github.io/DreamActor-M1
上記サイト内の動画をみると…
簡単にフェイク動画が作れちゃうなぁ…と…。
でも…便利っちゃ…便利かな…。
DreamActor-M1の主な機能と特徴
- ハイブリッドガイダンスシステム: 顔の表情、頭の動き、体のポーズを精密に制御するために、異なる手法を組み合わせています。
- マルチスケール適応性: ポートレートから全身のアニメーションまで、さまざまなスケールに対応できるように設計されています。進行的なトレーニング戦略を用いて、異なる解像度のデータを活用します.
- 長期的な時間的一貫性: 動画生成において、時間を通じて一貫した外観を維持することが重要です。DreamActor-M1は、モーションを意識した参照フレームを活用し、フリッカーやジッターを防ぐために、個々のフレームだけでなく、シーケンス全体を予測します.
- 高いリアリズム: 生成されるアニメーションは、表情のマッピングやリップシンクの精度が高く、非常にリアルです。特に、顔の動きに関しては、他のモデルと比較して優れた性能を示しています.
制限事項
DreamActor-M1は、動的なカメラの動きや環境との相互作用においては課題が残ります。また、骨の長さの調整が必要な場合、手動での調整が求められることがあります。
結論
DreamActor-M1は、AIアニメーションの分野において大きな進歩を遂げた技術であり、映画製作やゲーム、アバター作成など、さまざまな用途において革新的な可能性を秘めています。今後、さらなる研究と開発が進むことで、より多くの機能が追加されることが期待されます。
by Felo


New Posts: