2025/09/20
2025/09/17
2025/09/15
Blender ライティングが良くなってきた
昨日アップしたTDW_3948は100%Modo製だけど、ライティングがちょっとイマイチかなと気になってた。で、ここ数日やってた「BlenderでChatGPTのイラスト立体化的のレンダリングを真似してみる」で作ったスタジオセットにTDW_3948を読み込んでレンダリングしてみた。

背景の白飛ばしまではやってないけど、ちょっといい感じのライティングになってきた模様。

あと、昨日書いてた「カラーテクスチャとレンダリングの色の一致」についても、ほぼ同じ色が実現できてる。

背景の白飛ばしまではやってないけど、ちょっといい感じのライティングになってきた模様。

あと、昨日書いてた「カラーテクスチャとレンダリングの色の一致」についても、ほぼ同じ色が実現できてる。
2025/09/14
Blenderのカラーマネジメントについて

Blenderのカラーマネジメントについて、検索してもピンポイントな答えが見つからないので、ChatGPTとGrokに聞いてみた。
質問_______________________________________________
レンダープロパティで色空間をsRGBに、ガンマを1.0にすると、Blender上のレンダリング画像と、Photoshop上のレンダリング画像の色が同じになるのはわかってた。
で、問題なのはテクスチャ画像の色。Modoでは画像をリニアで扱うため、画面のガンマ2.2の逆算の「ガンマ0.454」にしないと白っぽく表示された。
同じことをBlenderで再現するには、ガンマノードをテクスチャの色出力とプリンシプルBSDFの間に挟んで、ガンマ値を1.1〜1.2くらいにすると、テクスチャ本来の色でレンダリングされるようになった気がする。
この考えは合っているでしょうか?
答え_______________________________________________
「ガンマノードで補正する」というのは、Modoとの違いを強引に合わせただけで、Blenderの標準的な使い方ではありません。
Modoはテクスチャをリニアで扱うのでガンマ0.454で変換の必要があったが、Blenderは自動色空間変換されてるため必要ない。sRGBを基本にすれば大丈夫。
Blenderでは「テクスチャノードのColor Space設定を正しく使う」のが正解です。Blender内部では基本的に リニアsRGB を使います。
sRGB(デフォルト):色として扱う場合(Base Color など)はこちら。内部的に自動でリニア変換されます。
Non-Color: 値データ(法線マップ、ラフネス、スペキュラなど)の場合はこちら。ガンマ変換されません。
Photoshopとの一致を狙うなら、Render Properties → Color Management → View Transform を Standard に、Lookを None、Exposure/Gamma を 0/1 にして、保存時に sRGB にしておくと混乱が減ります。
Blenderで出した画像を正しくsRGBとして読み込み → 作業用のAdobeRGBに変換、という流れになります。
_______________________________________________
おお〜!両方のAIで答えはほぼ同じ。信用できそう。
画像の赤線の部分だけこのように設定すれば良いらしい。テクスチャが薄く見えたりするのはHDRIや照明の具合でなんとかするべきで、カラマネをいじってはいけないということ。
(あと、印刷物を前提にしたAdobeRGBを標準にするのはやめ、sRGBで統一していいのではないか?という話にもなった。そのへんずっと思ってたけど長くなるので別の機会に書く)
ChatGPT、スケッチから立体化2 (その3)
カラースケッチまたは2Dイラストからの立体化。生成された画像と手作業で作った3DCGと、違和感がなくて驚いたものを中心に投稿。



「スケッチ」「AI生成」「3DCG」の比較。へたすりゃ3DCGより良いものもあったりする。「わざわざ3DCGで作る必要ある?」って。



「スケッチ」「AI生成」「3DCG」の比較。へたすりゃ3DCGより良いものもあったりする。「わざわざ3DCGで作る必要ある?」って。

ラベル:
3DCG,
ChatGPT,
GenerativeAI
Blender、サブディビジョン方式の違いでUVの形が変わる件
Blenderメモ サブディビジョン方式の違いでUVの形が変わる件
BlenderにFBX等でインポートしたModoモデルは、サビディビジョンサーフェスの設定をいじらないとテクスチャがズレる。「UVスムーズ」と「境界スムーズ」をどちらも「すべて」にするとかなり改善されるけどやはりズレる。ModoのリニアUV(カクカクしてる)にスムースをかけたような形状というか。

ブタちゃんの場合、足先がUV枠の下にはみ出てしまい、ループして上のピンクが表示されてる。これは設定をいじっても直らなかった。
BlenderにFBX等でインポートしたModoモデルは、サビディビジョンサーフェスの設定をいじらないとテクスチャがズレる。「UVスムーズ」と「境界スムーズ」をどちらも「すべて」にするとかなり改善されるけどやはりズレる。ModoのリニアUV(カクカクしてる)にスムースをかけたような形状というか。

ブタちゃんの場合、足先がUV枠の下にはみ出てしまい、ループして上のピンクが表示されてる。これは設定をいじっても直らなかった。
2025/09/13
ChatGPT、スケッチから立体化2 (その2)
カラースケッチまたは2Dイラストからの立体化。生成された画像と手作業で作った3DCGと、違和感がなくて驚いたものを中心に投稿。



下の「スケッチ」「AI生成」「3DCG」の比較を見てほしい。へたすりゃ3DCGより良いものもあったりする。「わざわざ3DCGで作る必要ある??」って。(3DCG作成中に加えた変更はAI生成には反映されてないです)






下の「スケッチ」「AI生成」「3DCG」の比較を見てほしい。へたすりゃ3DCGより良いものもあったりする。「わざわざ3DCGで作る必要ある??」って。(3DCG作成中に加えた変更はAI生成には反映されてないです)



ラベル:
3DCG,
ChatGPT,
GenerativeAI
2025/09/12
ChatGPT、スケッチから立体化2(1)
7月末の僕的「スケッチから立体化ブーム」からしばらくして、8月半ばにいろいろ生成したもの。数が多いのでSNSでは出来の良いものだけアップしていくつもり。




来年分のTDWキャラ「まるこいシリーズ」のスケッチを元に立体化してもらったところ、再び衝撃受けた。「わざわざ時間をかけてBlenderで3DCG作る必要があるのか??」ってw
今、実際にBlenderで作りかけてみると、「う〜ん、そうじゃない」的な部分がいろいろあるし、やはり手作業で作るほうが思い通りになるのは当たり前だけど、一度テストとしてAIで立体化すると非常に参考になる(イマイチになりがちな部分が前もってわかる)。
ライティングと質感がすごく良いので、逆に生成画像を参考にBlenderのレンダリング設定に反映させたりしてます。






来年分のTDWキャラ「まるこいシリーズ」のスケッチを元に立体化してもらったところ、再び衝撃受けた。「わざわざ時間をかけてBlenderで3DCG作る必要があるのか??」ってw
今、実際にBlenderで作りかけてみると、「う〜ん、そうじゃない」的な部分がいろいろあるし、やはり手作業で作るほうが思い通りになるのは当たり前だけど、一度テストとしてAIで立体化すると非常に参考になる(イマイチになりがちな部分が前もってわかる)。
ライティングと質感がすごく良いので、逆に生成画像を参考にBlenderのレンダリング設定に反映させたりしてます。


Copilotで同じく立体化してみた。形状はCopilotのほうが正確だけど、ChatGPTより味付け薄めな分、弱いかな。。。
なお、Geminiは原画に忠実に立体化してくれたけど、黒の輪郭線つき。輪郭線を取ってもらおうと何度かやったけど、ダメループに入ったようなのであきらめた。
なお、Geminiは原画に忠実に立体化してくれたけど、黒の輪郭線つき。輪郭線を取ってもらおうと何度かやったけど、ダメループに入ったようなのであきらめた。
2025/09/11
ChatGPT・Gemini マンガから立体化

これはChatGPTではなくGemini。ChatGPTではイマイチだった。ただ、Geminiも一度ダメループにハマるとまったく指示が効かなくなる。これの場合、ライティングをどう指示しても逆光は直らなかった。

何度やってもChatGPT/DALL·Eはモンスターの後部を正確に描写してくれなかった。

原画はパリの友人Christophe Bouilletがやってた「fusée」というマンガ誌/ジンに載せてもらった2ページのマンガ。1998年。
Blender「YT-Tools for Blender」を入れてみた

Modoのオリジナル開発者の一人 田崎禎明さんが作ったBlenderでModoの機能を実現するアドオン「YT-Tools for Blender」。
ようやく購入できた。先日からgumroadで「一時的な問題が発生しています」でずっと購入できなかったけど、さっき試したらすんなり成功。
YT-Tools for Blender
https://tazaki.gumroad.com/l/gamki
日本語版解説ページ
https://tazee.github.io/yt-tools/index_J.html
とりあえず、すぐ使えるものいくつか↓
「Edit Modeの循環(スペースバーで頂点・辺・面モードを循環)」は直ちに超便利!!
サブディビジョンサーフェイスのオン・オフの切り替えのショートカット (Shift-TAB)も超便利というか、泣けるw
「Select Contextual(ダブルクリックで繋がったエレメントを全選択)」はショートカットを編集して独自に実現してたけど、そちらを削除してYT-Toolsのほうで使う。
「Delete Contextual(Modo風の削除)」、これも直ちに便利。Blenderでは単に削除したいのに何を削除するか選択しなくちゃいけないので。
「Bend Transform(Modo風のベンド)」、多用してたので非常に助かる!
「Soft Drag(Modo風のソフトドラッグ)」、プロポーショナル編集でできてたけど、こちらのほうがなじむ。
「Workplane(Modo風の作業平面)」、これもトランスフォーム座標系で実現できてたけど、もちろんこちらのがなじむ。
などなど。混乱するので、すでにBlenderの操作に慣れてしまったものはそのままに使い続けるつもり。プレファレンスで機能やショートカットをオフにする必要もありそう。
まだ入れて30分くらいなので、引き続き使ってみます。

これはModo風ベンド。わお!本当にModoのベンドだ!
●追記
サブディビジョンサーフェイスモディファイアを追加するショートカット「ctrl+数字」が効かなくておかしいなと思ったら、サブディビ表示オンオフだけでなく、モディファイア追加自体に「shift+TAB」のショートカットが使える! Modoと同じく!
あと、シンメトリーでも効くループスライスも素晴らしい!
2025/09/10
ChatGPT、イラストから立体化 8月後半分その1
ちょっと滞ったけど、8月後半に生成してたものがまだまだいっぱいあるので、どんどんアップしていきます。



原画は月刊アスキーに載ったイラスト「カエルカー」。驚くほどいい感じの立体化。右20度回転もいい具合(7枚目)。


2枚目 これも原画は月刊アスキーに載ったイラスト。なんとも順当な自然な仕上がりで、あまり感動がないw


3枚目 原画はアスキー刊のビデオ関連ムックの表紙イラスト。原画のテクスチャ感など粗い感じがほしかったのだが、特に指定してないのにきれいなソフビ調に。


1枚目 原画はこれも月刊アスキー用に描いたイラスト「レンガ男改め暖炉男」。アナログ絵の「レンガ男」もだったけど、どうやっても足先を断ち落とした風にできない。手はできてるのになあ。


2枚目 これも月刊アスキー用イラスト「ファイヤードッグ」。やはり当たり前な立体化で驚きは少ないけど、よくできてるなあ。


3枚目 同じく月刊アスキー用。Macを速くするとかそんな記事だったんだろう。iMac登場以前のいかにもパソコンな質感が見事。


原画は月刊アスキーに載ったイラスト「カエルカー」。驚くほどいい感じの立体化。右20度回転もいい具合(7枚目)。

2枚目 これも原画は月刊アスキーに載ったイラスト。なんとも順当な自然な仕上がりで、あまり感動がないw
3枚目 原画はアスキー刊のビデオ関連ムックの表紙イラスト。原画のテクスチャ感など粗い感じがほしかったのだが、特に指定してないのにきれいなソフビ調に。

1枚目 原画はこれも月刊アスキー用に描いたイラスト「レンガ男改め暖炉男」。アナログ絵の「レンガ男」もだったけど、どうやっても足先を断ち落とした風にできない。手はできてるのになあ。

2枚目 これも月刊アスキー用イラスト「ファイヤードッグ」。やはり当たり前な立体化で驚きは少ないけど、よくできてるなあ。

3枚目 同じく月刊アスキー用。Macを速くするとかそんな記事だったんだろう。iMac登場以前のいかにもパソコンな質感が見事。
ラベル:
2DCG,
ChatGPT,
GenerativeAI
2025/09/08
Blender、Cyclesのレンダリングが8倍速に

先日のGPUレンダーCyclesのレンダー設定の続き。サイズは3000pixel正方形。
サンプル数4096 タイル256:8分04秒からスタートし、
サンプル数1024 タイル512:5分10秒まで縮めた。
今日はその続きで、サンプル数を小さくし、デノイズにGPUを使うチェックボックスを見つけたのでそれも使ったところ……、
サンプル数512 タイル512:2分52秒
サンプル数256 タイル512:1分43秒
サンプル数128 タイル512:58秒
なんと、1分切った! 最初の設定の8倍速! このくらい速ければ爆速と呼んでいいや。少し高級なGPUなら30秒だろうな。
サンプル数128と256は、拡大するとさすがに少しザラザラしてるけど、比べなきゃわからない。ぜんぜん大丈夫。普段は128で、本気レンダリングのとき1024に上げる感じで良さそう。
・MacのMetalを使ったGPUレンダリングでは、サンプル数128 タイル512のまま、確認用サイズ800pixel正方形のレンダリングは20秒、1500pixelで1分12秒。ぜんぜんイケるわ。

サンプル数128のザラザラは、PhotoshopのCamera Rawフィルタのノイズ軽減でスルスルになる。ノイズ&スクラッチでも同じく。128でぜんぜんいいかもね。

その後わかったのだが、あああ!バカでした。よく見てなかった。レンダー設定の上と下に「最大サンプル数」があって、レンダリング速度的には下のサンプル数しか効かないなあ、と思ってたのだが、よく見たら、上が「ビューポート」、下が「レンダー」だったw 思ってたよりシンプルだった。
上記を踏まえ、MacのGPUレンダリングでもサンプル数を極端に低くしてみたところ、サンプル数64で2分24秒、サンプル数32で1分26秒。
もちろんちょっとザラザラになるけど、Photoshopのノイズ軽減がある。BlenderをメインにするならやはりゲームPCを新調する必要があるかと思ったけど、今の時点ではまだ大丈夫っぽい。本格的になってきたらでいいや。
あと、ビューポートの表示品質を32とかに低くすれば、Modoのプレビューウインドウでいつもレンダリング状態が見えていたのと同等の表示品質のビューポートで作業できてしまう。これはラクだ。
登録:
投稿 (Atom)