2025/08/31

Blender、「TDWの新作をBlenderでひとつ作る」を達成〜!


Blenderの習得を再開して苦節2週間w ModoでやってたことがBlenderのどれに相当するかひとつずつ探し出してメモ書き。おおよそ必要な技術が揃ったところで、昨日から6時間ほどかかって、「TDWの新作をBlenderでひとつ作る」ところまで達成〜!

このキャラシリーズのスケッチは15個あるので、それらを作りながらBlenderでのTDWキャラ量産体制を整えていくつもり。まだ手がスムーズに動かないし、ショートカットもつっかえつっかえ。こんなシンプルなキャラなら、Modoなら1時間もかからないのに。

・ライティングやHDRIの具合なのか、オブジェクトの背景にアンビエントオクルージョン的なモヤモヤがかかるのは何だろう? ピンクのキャラでは両耳の間あたりのグレーっぽいモヤ。

わかった。レンダープロパティ→レイトレーシング→高速GI近似→遠方。この「遠方」の数値が低いとモヤモヤは薄く、高いと濃くなる。上下の「距離」「近景の厚さ」「バイアス」でも濃淡が変わるけど、「遠方」が最も顕著に変わる。


やり直してみた。左が「遠方」1°、右が「遠方」90°
高速GI近似の方法は初期設定は「グローバルイルミネーション」になってるけど、「アンビエントオクルージョン」も選べる。やはり、計算の負担を軽くしつつそれっぽい環境光の陰影を作ってくれるものらしい。シンプルなシーンでは目立っちゃうようだ。


ひとつ忘れてたのが「ノイズバンプ」。解説サイトを参考にノードを組んだのだが、こんなにややこしくなるのか! ノイズでバンプするだけだぞ?

僕的な正式な設定では入れてる「フレネル」も「ミックスシェーダー」も「ガンマ」も入れてないぞ?


ChatGPTに「もうちょっとシンプルにできないか?」と聞いたら、下列のノイズバンプ関連から3つのノードを省略できた!


Cyclesによるレンダリングも忘れてた。時間はかかるけどめちゃきれい。ただ、ライトのハイライトを消せないのが難点。ライトパスのノードを使う手もあるらしいけど、まだ試してない。リアルさよりも形をしっかり見せたいので、Eeveeのレンダリングで十分かな。

Copilot 3Dでイラストを元に3Dデータ化


Copilot 3Dを試してみたが、2Dイラストからでは板状に立体化されただけで失敗w
少しアニメ風の陰影をつけたら、ちょっと立体化されたw

そうだ、以前、Unique3DというAIでスケッチから3Dにしたときの画像から、3Dモデル作成→ダウンロード→Blenderに読み込んでみた。できてる!


GLBファイルを書き出し、Blenderに読み込んでみた。

で、ああそうか、何やってるんだ。Copilotで作成した画像を入力すればいいんだった。

できたできた。

動画


BlenderでGLBファイルを開いてレンダリングしてみたり。

GLBファイルのテクスチャ画像は取り出せないのかな?と思ったら、Blenderから普通に保存できた。

生成されたメッシュをオートリトポし、テクスチャペイントし直すという手順をとれば、カラースケッチから最短で3Dモデルができちゃうわけか。構造的には手作業でモデリングするほうがきれいに作れると思うけど。



2025/08/30

Copilotも使ってみた 2Dイラストからの立体化

MicrosoftのAI、「Copilot」が話題になってるようなので、同じ原画でChatGPTと「ソフビの質感で立体化」を競作させてみた。

2Dイラストの原画


Copilot製

ChatGPT製

Copilot、やるじゃん! ChatGPTのDALL·Eとくらべて遜色ない。Copilot 3Dというのもあって、画像から3Dモデルを作れるらしい。試してみよう。

(実はこのブタはChatGPTでちゃんと完成バージョンができてるのだが、競作させたらなぜかどちらも素足になってたw)




ChatGPT、イラストから立体化「Mac Way」


原画は1996年、雑誌MacFanビギナーズのイラスト仕事。この時に「概念をキャラクター化」という方向を得たと思う。この路線は翌年のMacFan EXPOのビジュアルやムック本などに展開した。

ChatGPTによる立体化は、あまりに見事に再現されすぎてて、原画と見た目がほとんど変わらず、あんまり面白くないという結果にw









_______________________________________________

これは手の形状と足がなくて浮いてるということがChatGPTになかなか理解してもらえず、何度も試行錯誤してる途中のもの。失敗なのだが、原画より良いw



TDW_3943


 

2025/08/29

Blender、アルファの書き出し方法をChatGPTに聞いてみた件


ここ数日で、Modoでやってたようなルーティン作業→「テンプレート読み込み」→「微調整含むモデリング」→「UV展開」→「テクスチャペイント」→「シンプルなマテリアル設定」までやった。レンダリングは何度かやったので多少は慣れてたけど、最後の難関が残ってた。

レンダリングで「マテリアルかオブジェクト単位のアルファチャンネルのレイヤー書き出し」。

アルファ書き出しを検索しても透過PNGなどの事例ばかり出てきてぜんぜんわからなかったのだが、ChatGPTに「Blenderのこと聞いても大丈夫?」「もちろんです!」ってw

詳しくは書かないけど、2つのキャラに2つのマテリアルIDを決め、Cryptomatteでオブジェクトとマテリアルにチェック、レンダリングをOpenEXR Multilayerフォーマットで書き出し、PhotoshopにProEXRというプラグインを入れ、開くと、20枚以上のレイヤーにアルファ2枚が含まれてた!(図ではレイヤー順は変えてます)

やった! ModoでレイヤーPSDで書き出してたのと同じにできた。これでひととおりTDWキャラを作る技術は揃ったかも。まだめちゃくちゃ手は遅いけど。

20枚以上の無駄レイヤーは異常事態ではなく「Blenderあるある」とのこと。必要なレイヤーのみ書き出す方法もあるらしいけど、今はいいです、と。

●おまけ

今日、Blenderでわかってうれしかったのが、ブラシでテクスチャペイントの際、向こう側まで貫通してペイントできること。回さず一気に素早くペイントできる。たとえばトラ猫のシッポなんか思い浮かべてもらえばラクさがわかるw

昔、ZBrushでよくその方法でペイントしてたけど、Modoではできなかった(ポリゴンを裏返せば回さずに向こう側をペイントできるが、裏表同時にペイントは不可)。

Blender難しい/Blenderで裏表同時にテクスチャペイント!貫通させる設定を解説

ChatGPT、アナログイラストから立体化「羊」


原画は1990年12月に描いたアクリル画イラスト。なぜ12月かというと未年の年賀状用に描いたから。

「精細な3DCGタッチで背景や地面も含めて立体化してください」。すごい緻密! まさにこれを描きたかった感じ。よく見ると、完全に省略したはずの足があるなw


「空だけ、少し夕方っぽい色にできますか?」。これも緻密!


「ルネサンスの油彩画のようにしてください」。自分が描いたように違和感ない。足は消えてくれたw






2025/08/28

ChatGPT、アナログイラストから立体化「レンガ男」


原画は1991年頃のアクリル画イラスト「レンガ男」。腹が暖炉になってるキャラとして何度か作り直したことがある。

足部分、何度やり直しても原画どおりに作ってくれない。やはり一般的なキャラの構造に寄せられるらしい。







Adobe Illustratorベータ版の「ターンテーブル」


Adobe Illustratorベータ版の「ターンテーブル」をやってみた。2Dイラストの弱点「描いたキャラの角度を変えるには自分で描くしかない」の突破。

実際回ると「おお!」と驚くけど、今のところ品質はイマイチか。上を向けたときの足の破綻とかも。真後ろは向けられないので360度回転にはならない。

1枚目みたいに正面からの二次元的構造なキャラはしっかり回るけど、立体的に捉えるのが難しい絵ではどうなるんだろ?

2枚目はしっぽがどうなるかと思ったら、ちゃんと体の後方に伸びるしっぽとして描かれてた。

3枚目はちょっと複雑すぎるし破綻も多いけど、ぱっと見ちゃんと回せるのがすごい。

ChatGPTでも2Dイラストの角度変えなんてやってみてるけど、IllustratorやPhotoshopでこういうことができると、「AI生成イラスト」と「まっとうなイラストw」の境目があいまいになりつつあるな。



2025/08/26

Blender、ペイント時のスポイトの件など

Blenderのテクスチャペイントの際、スポイト/色の採取のショートカット「shift+X」で採った色がカラーパレットには追加されるのにブラシに反映されない。30分以上もかかって、スポイトはショートカットで空中採取、クリックしてはいけないと理解 orz

ここ数日でModoでやってきたようなモデリングの小技、今日はUV展開とテクスチャペイントの基本、レンダリングは先日だいたいやった。複雑でないキャラなら十分作れるようになったんじゃないかな、、。でも急がない。ひととおり作れるようになると覚える機会を失ってしまう基本技みたいのをある程度仕込んでから。

多少は慣れつつあるし、僕がModoでやってた程度のことはたいていできるのも確認済み。操作につまずいたらウェブ検索すればいくらでも解決策が出てくるのは本当に助かる。

昨日UV展開やってて、あらかじめシームを入れてから一気に開く方式は意外に良いなと思った。Modoでは1パーツずつシームというか辺を選択して展開という感じだったので。もちろんシームを保存して一気に開くのはModoでもできるんだけど、シームの入れ方で開き方が変わるのでシームを保存しておきたくなかったり。

まだ移動Gや拡大縮小Sのショートカットにも迷うくらいなのに、Modoに戻って作業するとショートカットの指がさまよってしまうのが非常に困る。Blenderに完全に慣れてしまうか、それともModoで一生やるかw

ChatGPT、「複数キャラクターの融合」 その4

「どちらを優先」とか「AにBの特徴を加える」など、多少のプロンプトをつけて融合。

木目ヘビは最高傑作かも。


赤サルタコは色調合わせや継ぎ目を思うように生成してくれなくてかなり苦労。












2025/08/25

ChatGPT、「複数キャラクターの融合」 その3 2Dバージョン

3Dだけでなく、2Dイラストの融合だってできる。立体的な解釈が入らない分、結果にそれほど驚きはなかった。とりあえず比較的面白いものだけアップ。

さらに、2D融合キャラを3D化したらどうなるかもやってみた。