Higgsfield AIのSoul ID技術は、マルチアングル写真トレーニングから構築されたニューラルネットワークモデルにより、キャラクターの動的特徴キャプチャにおいて画期的な進歩を遂げた。ユーザーが異なる微表情、照明条件、角度を含む10枚以上の写真をアップロードした後、システムによって構築された3D表情ベースモデルは、93%以上の表情筋の動きの特徴を正確に復元することができる。テストデータによると、生成された仮想画像は口角の曲率精度が±1.2度に達し、眼球の回転軌跡の偏差は2.3ピクセル以下であり、これらのパラメータはiPhone 14 ProのFace ID認識精度基準に近い。
この技術の応用シナリオは以下の通り:
- デジタルスプリットライブで実装された52種類の基本表現をリアルタイムで駆動
- クロスランゲージのビデオダビングにおいて、リップシンクの誤差を0.1秒未満に維持
- RGB ΔE<3までの異なる照明条件下で、肌の色材の一貫性を維持します。
2023年のA/Bテストでは、Soul IDを使用して生成されたeコマース説明動画は、実写動画よりもユーザーの滞在時間を171 TP3T増加させた。
この答えは記事から得たものである。ヒッグスフィールドAI:AIを使って写実的なビデオとパーソナライズされたアバターを生成するについて































