静から動へのインテリジェントな変換システム
まず、CNN(Convolutional Neural Networks:畳み込みニューラルネットワーク)によってスケッチの空間トポロジーを特定し、次にST-GAN(Spatio-Temporal Generative Adversarial Networks:時空間生成アドヴァーサルネットワーク)を使って合理的な動きの軌跡を予測し、最後にNR(Neural Renders:ニューラルレンダリング)を使って物理法則に従って光と影の効果を合成する。このシステムは、鉛筆スケッチやデジタル線画など様々な入力形式をサポートし、キャラクターの関節や建築パースなどの重要な要素を自動的に識別します。
教育分野でのアプリケーションでは、生物学的な細胞分裂の模式図を描く教師が、このシステムで処理した後、92%の正解率でダイナミックな教育用アニメーションを生成できることが証明されている。 アドビのテストレポートでは、従来のフレームごとの制作方法と比較して、この技術はアニメーション制作時間を40時間/分から15分/分に圧縮していると指摘している。このプラットフォームにはモーションテンプレートのライブラリも用意されており、ユーザーは「ウォーキングサイクル」や「流体シミュレーション」などのプリセットモーションパターンを直接適用することができる。
この答えは記事から得たものである。OpenCreator:複数のAIモデルを統合してクリエイティブな動画を生成について































