
シンプルな形状のキャラの「スケッチ→AI生成」では、3DCGで作ったものよりAI生成のほうが完成度が高いものも出来たりする。
しかし、たいていは「出たとこ勝負」で、へたすりゃ何十回も生成を繰り返すことになる。部分的に選択して修正を加える機能もあるけどうまくいくことはあまりない。時間を置いてからやってみるとうまくいくこともあるし。
いつものTDWキャラの3DCG制作では、「出来たけど、思ったほど良くないぞ?」→「おお!なんとかなった、あの感じが出た!」になるまで、修正やテストレンダリングを繰り返す。そういった「ブラッシュアップ工程」に本制作より時間をかけたりするのだが、AI生成ではそれがほとんどできないのがもどかしい(AI生成の画像をレタッチするのは実験中は反則w レタッチや合成アリなら何でも可能じゃん、と)。
で、満足できるものが生成されたとしても、それはただの「低解像度画像」(350dpiでは名刺サイズ程度)。再現もできないし、3Dデータのように利用・応用できるものでもない。
現在制作中の来年分のTDWキャラは、「カラースケッチをAI生成でとりあえず立体化してみて、注意点や改良できる点をあらかじめ把握。それを上回るものを3DCGで作る」をやってます。
0 件のコメント:
コメントを投稿