2025/09/08

Blender、Cyclesのレンダリングが8倍速に


先日のGPUレンダーCyclesのレンダー設定の続き。サイズは3000pixel正方形。
サンプル数4096 タイル256:8分04秒からスタートし、
サンプル数1024 タイル512:5分10秒まで縮めた。

今日はその続きで、サンプル数を小さくし、デノイズにGPUを使うチェックボックスを見つけたのでそれも使ったところ……、

サンプル数512 タイル512:2分52秒
サンプル数256 タイル512:1分43秒
サンプル数128 タイル512:58秒

なんと、1分切った! 最初の設定の8倍速! このくらい速ければ爆速と呼んでいいや。少し高級なGPUなら30秒だろうな。

サンプル数128と256は、拡大するとさすがに少しザラザラしてるけど、比べなきゃわからない。ぜんぜん大丈夫。普段は128で、本気レンダリングのとき1024に上げる感じで良さそう。

・MacのMetalを使ったGPUレンダリングでは、サンプル数128 タイル512のまま、確認用サイズ800pixel正方形のレンダリングは20秒、1500pixelで1分12秒。ぜんぜんイケるわ。

Blender、複数のオブジェクトそれぞれのマスク画像を書き出す


先日、二つのキャラそれぞれの切り抜きマスクを含むレイヤー付きでレンダリング成功!とか書いてたけど、その後、キャラを3つに増やして同じ設定にしてもどうやっても3枚目のマスクが生成できなかった。

昨夜からまたあれこれ試行錯誤。やっぱノードを使わなくちゃいけないらしい orz

ChatGPTやCopilotに相談しつつ(同じこと聞いてわかりやすいほうを採用w)、コンポジティングノードというのを組んでみた。3つのオブジェクトにそれぞれ出力系統を作るのね。とりあえず、3つのオブジェクトのそれぞれの切り抜きマスクを出力することに成功。カラー画像は手動で保存。

さらに、ファイル出力ノードにスロットを追加してひとまとめにしてしまうのもやってみた(画像上)。一つのOpenEXR MultilayerファイルをPhotoshopで開くと、マスク画像3枚とカラー画像1枚が入ってる! これでいいや。

起動ファイルにコンポジティングノードをある程度作って保存しておいた。ゼロから組まなくていいのでラクだろう。

キャラ1個でマスクが1枚ならこんな感じか。真っ黒レイヤーが何十枚も生成されちゃう方式よりはマシかもしれない。

オブジェクトからマスクを作る場合、いくつかのパーツのグループというかアセット単位でマスクを作ることも可能らしい。どっちにしても、初期に試してたマテリアルからマスクを作る方法だと1キャラ1マテリアルってことになっちゃうので実用にならなかった。

・何が苦痛って、Modoで当たり前に出来てたことが、Blenderでは作法がぜんぜんちがってめちゃ複雑になったりすること。昨日の再分割の件もそうだし、今回の切り抜きマスクの出力だって、Modoだったらそれぞれのマテリアルかマテリアルグループに「アルファアウトプット」ってレイヤーを入れてやればいいだけだったのに。Blenderの場合、面倒に見えてもいろいろ融通が効くんだろうけど。

TDW_3946

 
今日からしばらく新旧の既存キャラを丸っこくリニューアルのシリーズ。

2025/09/07

ChatGPT番外編 女の子のポートレイト拡張


ChatGPT番外編。先日の2Dイラストの女の子のポートレイト、「全身を3D化できますか?」でできたもの。フラ人形だったのかw 油彩画と3Dの中間のようでおもしろい。

Blender、Modo風再分割のアドオンを作った


Blender初心者のくせに、ChatGPTと相談しながらアドオンを一つ作ってしまった。

Modoの再分割(ショートカット:D)は、サブディビジョンサーフェス的に丸っこく細分化してくれる。たいていの3Dソフトで同じことができると思ってたのだが、Blenderではそういう細分化にならない。

Blenderのメッシュの「細分化」は形状を変えずに単純に分割するだけだが、スムーズの値を上げると滑らかになるものの、膨らんでしまう(図B)。

普通にサブディビジョンサーフェスモディファイアを追加すればほしい形状になるので、これを「適用」すればいいのだが(図C)、もともとサブディビジョンサーフェスでモデリングしてるもんだから、部分をサブディビ的に細分化しようとすると非常に面倒。

で、スムーズなしの細分化したものに「頂点をスムーズに」を1かけると、それっぽくできるが、サブディビモディファイアの結果と同じにはならない(図D)。さらに「頂点をスムーズに」を0.75追加したら、ほぼ同じ形状にできた(図E)

ChatGPTに手伝ってもらって、この操作「細分化→頂点スムーズ1→頂点スムーズ0.75」をpythonスクリプトにしてもらい、メッシュメニューに登録。ちゃんと使えることを確認。

ところが、せっかくメニューに登録しても、Blenderを再起動すると消えてしまう。何か方法ないかChatGPTに聞いたら、「.py」形式で保存してアドオンにする方法を教えてくれた。読み込んで使えてます。

ショートカットをModoの再分割と同じ「D」にした。めちゃ便利!

(たぶん車輪の再発明的な「そんなの普通にみんなやってます」だろうけど、初心者としては魔法を使えたようでうれしいw)

(「細分化」「細分割」「再分割」、どれが標準かわからんけど同じ意味で使ってます)

2025/09/05

Blender、Cyclesのレンダー設定をいじって速くする


GPUレンダーCyclesのレンダー設定をいじってみた。サイズは3000pixel正方形。主に2つの「最大サンプル数」と「タイルのサイズ」をいろいろ上下させてみたところ……、

サンプル数初期設定 タイル256:8分04秒
サンプル数を2056 タイル512:5分53秒
サンプル数を2056 タイル1024:5分29秒
サンプル数を1024 タイル1024:4分50秒
サンプル数を1024 タイル256:5分40秒
サンプル数を1024 タイル1024:5分10秒
サンプル数を1024 タイル512:5分10秒

ずいぶん縮まったけどレンダリング画像の見た目に違いはない。まだまだ下げられそう。


BlenderのGPUレンダリングで5分10秒は速い!爆速!とか思いかけてたけど、Modoでは従来のレンダリングで1分57秒w もちろん比べるべきはModoのGPUレンダラーのmPathだろうけど。



BlenderのEeveeはリアルタイムレンダラーとのことだけど、準備時間がちょっとかかって計約30秒。倍寸の6000px正方形では2分45秒だった。仕上がりはCyclesのレンダリングと比べてしまうとたしかにショボいけど、こちらでなんとかなれば正真正銘の爆速レンダラーなんだけどなあ。


TDW_3945


 

BlenderでModoの機能を実現するアドオン、Matcap


Modoのオリジナル開発者の一人 田崎禎明さんが、BlenderでModoの機能を実現するアドオンをリリース。(Richard Yotさん情報)
https://tazaki.gumroad.com/l/gamki


特に、「スペースキーでFace → Edge → Vertexを循環切替」「フォールオフ付き変形」「ベンドツール」「ソフトドラッグ」などは助かりそう。

ただ、僕的にはすでにBlender式に慣れつつあったり、アドオンやショートカット編集でModo的な操作を実現してるのもあったりする。混乱するかもなあ……。

_______________________________________________
あと、同じくYotさん情報で、Cristóbal Vila氏提供のModo風の「反射」Matcap。
https://etereaestudios.com/resources/blender-resources/


・もうひとつ、Modoがオープンソース化されるのが理想という方向があったのですが、Greg Leuenberger氏とPixel Fondueが相当がんばったにも関わらず、現状ではほぼ実現は難しいとのこと。FoundryからModoをクラウドファンディングなどで買い取るにはあまりに高額だったらしい。

オープンソース化の可能性に賭けて他の3Dアプリに乗り換えをためらっていた人は、そろそろ前進しましょう、とのこと。Greg氏が動画で現状を説明しています(日本語字幕で見たけど、とても良い動画)。

2025/09/03

2025台東光祭「ウリボウたち登った」がGoogleマップに写ってる

2025台東光祭出品作品「ウリボウたち登った」がGoogleマップの航空写真に写ってる! 真上からの写真を見れるとは思わなかったw


https://maps.app.goo.gl/6vT3hdAmug3bmHmV9
ストリートビューには映ってないのが残念。


こんなアングル

2025/09/02

Geminiで2D絵からの立体化


GoogleのGeminiも少し試してみた。いきなり最初のブタちゃんがやたら出来が良くて驚いた。



回転もバッチリ。

原画

_______________________________________________




グレープちゃんは余計なアレンジを加えてきたのを元に戻すのにちょっと枚数かかった。その後、別キャラを数枚ためしたけどイマイチだった。

しかし、何度か修正しても元のキャラの形状を保ってるように見えるのはChatGPTより優れてるところかも。






ChatGPT、イラストから立体化、ポートレイト

僕の人物イラストはとても少ないんだけど、Painterの解説本に作例としていくつか描いたことあるので、そこらへんをソースにいくつか生成。

イメージどおり! これは「滑らかな質感の3DCGに立体化してください」で生成されたものだが、「精細な3DCGのように」ではリアルすぎて怖かったのでボツ。

妙な味付けを避けたかったので単に「立体化してください」で生成されたもの。ネックレスが何だかよくわからない以外、完璧!


これなんかイラストで描こうとしていたそのまんまで笑ってしまうw


原画。1998年のWACOMの初代IntuosのCD-ROMに収録の「PainterClassicチュートリアル・スペシャル」というPDFの解説書のために描いたイラストのひとつ。2002年に「タブレット&PainterClassicで絵を描こう」という本に発展させた。



続編「タブレット&PainterClassic・Essentialsで絵を描こう」のために描いた2枚。

TDW_3944






 

2025/09/01

Blender 「GPUレンダリングのトラブル(伏線回収付き)」


Cyclesレンダリング。3000pixel正方形。MacのCPUレンダリングで1時間11分かかった。

GPUレンダリングは圧倒的に速いとのこと。OMENゲームノート(RTX2060)を使い、ChatGPTに相談しつつ最適設定でレンダリング開始。しかし、1時間8分。あれ? ぜんぜん速くない。

サンプル数を下げたりタイルサイズを変えるなど、レンダリング速度を上げる設定をしても、1時間7分とあまり変わらない。

何かグラボの設定がおかしいのかと確認したら……わかった ↓

先日Facebookに投稿した件、「OMENノートのファンが回りっぱなしでうるさいのでパフォーマンスを最低まで下げる『ECOモード』にしたら改善された」……自分が原因だったw うるさいだろうけど「パフォーマンスモード」に上げた。

もう一つ、決定的な原因があった。「プリファレンス→Cyclesレンダーデバイス」が、「なし」になってた。つまり、GPUを使わない設定。そりゃ〜〜無理だw

レンダーデバイスを「CUDA」に設定してレンダリングスタート。7分ほどでレンダリング完了!

次に「OptiX」も試すと、なんと5分半でレンダリング終了。これは速い。1時間8分が5分半って12倍速!

8年前購入のゲームノートのRTX2060でこの速さだったら、現行モデルのRTX 4070搭載デスクトップPCとかなら1〜2分だろうな。レンダーファームを使わなくてもアニメーションのレンダリングできるぞ。

◯同じ設定で、MacのレンダーデバイスをMetalに設定してレンダリングしたら、23分29秒。RTX2060には及ばないけど、CPUの3分の1の所要時間だった。(以前、ModoのGPUレンダラーを試してぜんぜん速くないとか書いてたけど、今回と同じように設定のミスがいろいろあったんだろうな……)