2025/09/12

ChatGPT、イラストから立体化「吠える犬」


ChatGPT、イラストから立体化。1997年、Painter。原画よりディテールがあるので迫力が出た。


原画はVINYLというロックユニットのCDジャケットのために描いたイラスト。


ChatGPT、スケッチから立体化2(1)

7月末の僕的「スケッチから立体化ブーム」からしばらくして、8月半ばにいろいろ生成したもの。数が多いのでSNSでは出来の良いものだけアップしていくつもり。





来年分のTDWキャラ「まるこいシリーズ」のスケッチを元に立体化してもらったところ、再び衝撃受けた。「わざわざ時間をかけてBlenderで3DCG作る必要があるのか??」ってw

今、実際にBlenderで作りかけてみると、「う〜ん、そうじゃない」的な部分がいろいろあるし、やはり手作業で作るほうが思い通りになるのは当たり前だけど、一度テストとしてAIで立体化すると非常に参考になる(イマイチになりがちな部分が前もってわかる)。

ライティングと質感がすごく良いので、逆に生成画像を参考にBlenderのレンダリング設定に反映させたりしてます。



Copilotで同じく立体化してみた。形状はCopilotのほうが正確だけど、ChatGPTより味付け薄めな分、弱いかな。。。

なお、Geminiは原画に忠実に立体化してくれたけど、黒の輪郭線つき。輪郭線を取ってもらおうと何度かやったけど、ダメループに入ったようなのであきらめた。

2025/09/11

ChatGPT・Gemini マンガから立体化


これはChatGPTではなくGemini。ChatGPTではイマイチだった。ただ、Geminiも一度ダメループにハマるとまったく指示が効かなくなる。これの場合、ライティングをどう指示しても逆光は直らなかった。


何度やってもChatGPT/DALL·Eはモンスターの後部を正確に描写してくれなかった。


原画はパリの友人Christophe Bouilletがやってた「fusée」というマンガ誌/ジンに載せてもらった2ページのマンガ。1998年。

Blender「YT-Tools for Blender」を入れてみた


Modoのオリジナル開発者の一人 田崎禎明さんが作ったBlenderでModoの機能を実現するアドオン「YT-Tools for Blender」。

ようやく購入できた。先日からgumroadで「一時的な問題が発生しています」でずっと購入できなかったけど、さっき試したらすんなり成功。

YT-Tools for Blender
https://tazaki.gumroad.com/l/gamki
日本語版解説ページ
https://tazee.github.io/yt-tools/index_J.html

とりあえず、すぐ使えるものいくつか↓

「Edit Modeの循環(スペースバーで頂点・辺・面モードを循環)」は直ちに超便利!!

サブディビジョンサーフェイスのオン・オフの切り替えのショートカット (Shift-TAB)も超便利というか、泣けるw

「Select Contextual(ダブルクリックで繋がったエレメントを全選択)」はショートカットを編集して独自に実現してたけど、そちらを削除してYT-Toolsのほうで使う。

「Delete Contextual(Modo風の削除)」、これも直ちに便利。Blenderでは単に削除したいのに何を削除するか選択しなくちゃいけないので。

「Bend Transform(Modo風のベンド)」、多用してたので非常に助かる!

「Soft Drag(Modo風のソフトドラッグ)」、プロポーショナル編集でできてたけど、こちらのほうがなじむ。

「Workplane(Modo風の作業平面)」、これもトランスフォーム座標系で実現できてたけど、もちろんこちらのがなじむ。

などなど。混乱するので、すでにBlenderの操作に慣れてしまったものはそのままに使い続けるつもり。プレファレンスで機能やショートカットをオフにする必要もありそう。

まだ入れて30分くらいなので、引き続き使ってみます。


これはModo風ベンド。わお!本当にModoのベンドだ!

●追記

サブディビジョンサーフェイスモディファイアを追加するショートカット「ctrl+数字」が効かなくておかしいなと思ったら、サブディビ表示オンオフだけでなく、モディファイア追加自体に「shift+TAB」のショートカットが使える! Modoと同じく!

あと、シンメトリーでも効くループスライスも素晴らしい!

TDW_3947


 

2025/09/10

ChatGPT、イラストから立体化 8月後半分その1

ちょっと滞ったけど、8月後半に生成してたものがまだまだいっぱいあるので、どんどんアップしていきます。




原画は月刊アスキーに載ったイラスト「カエルカー」。驚くほどいい感じの立体化。右20度回転もいい具合(7枚目)。




2枚目 これも原画は月刊アスキーに載ったイラスト。なんとも順当な自然な仕上がりで、あまり感動がないw




3枚目 原画はアスキー刊のビデオ関連ムックの表紙イラスト。原画のテクスチャ感など粗い感じがほしかったのだが、特に指定してないのにきれいなソフビ調に。



1枚目 原画はこれも月刊アスキー用に描いたイラスト「レンガ男改め暖炉男」。アナログ絵の「レンガ男」もだったけど、どうやっても足先を断ち落とした風にできない。手はできてるのになあ。





2枚目 これも月刊アスキー用イラスト「ファイヤードッグ」。やはり当たり前な立体化で驚きは少ないけど、よくできてるなあ。



3枚目 同じく月刊アスキー用。Macを速くするとかそんな記事だったんだろう。iMac登場以前のいかにもパソコンな質感が見事。






2025/09/08

Blender、Cyclesのレンダリングが8倍速に


先日のGPUレンダーCyclesのレンダー設定の続き。サイズは3000pixel正方形。
サンプル数4096 タイル256:8分04秒からスタートし、
サンプル数1024 タイル512:5分10秒まで縮めた。

今日はその続きで、サンプル数を小さくし、デノイズにGPUを使うチェックボックスを見つけたのでそれも使ったところ……、

サンプル数512 タイル512:2分52秒
サンプル数256 タイル512:1分43秒
サンプル数128 タイル512:58秒

なんと、1分切った! 最初の設定の8倍速! このくらい速ければ爆速と呼んでいいや。少し高級なGPUなら30秒だろうな。

サンプル数128と256は、拡大するとさすがに少しザラザラしてるけど、比べなきゃわからない。ぜんぜん大丈夫。普段は128で、本気レンダリングのとき1024に上げる感じで良さそう。

・MacのMetalを使ったGPUレンダリングでは、サンプル数128 タイル512のまま、確認用サイズ800pixel正方形のレンダリングは20秒、1500pixelで1分12秒。ぜんぜんイケるわ。



サンプル数128のザラザラは、PhotoshopのCamera Rawフィルタのノイズ軽減でスルスルになる。ノイズ&スクラッチでも同じく。128でぜんぜんいいかもね。


その後わかったのだが、あああ!バカでした。よく見てなかった。レンダー設定の上と下に「最大サンプル数」があって、レンダリング速度的には下のサンプル数しか効かないなあ、と思ってたのだが、よく見たら、上が「ビューポート」、下が「レンダー」だったw 思ってたよりシンプルだった。

上記を踏まえ、MacのGPUレンダリングでもサンプル数を極端に低くしてみたところ、サンプル数64で2分24秒、サンプル数32で1分26秒。

もちろんちょっとザラザラになるけど、Photoshopのノイズ軽減がある。BlenderをメインにするならやはりゲームPCを新調する必要があるかと思ったけど、今の時点ではまだ大丈夫っぽい。本格的になってきたらでいいや。

あと、ビューポートの表示品質を32とかに低くすれば、Modoのプレビューウインドウでいつもレンダリング状態が見えていたのと同等の表示品質のビューポートで作業できてしまう。これはラクだ。




Blender、複数のオブジェクトそれぞれのマスク画像を書き出す


先日、二つのキャラそれぞれの切り抜きマスクを含むレイヤー付きでレンダリング成功!とか書いてたけど、その後、キャラを3つに増やして同じ設定にしてもどうやっても3枚目のマスクが生成できなかった。

昨夜からまたあれこれ試行錯誤。やっぱノードを使わなくちゃいけないらしい orz

ChatGPTやCopilotに相談しつつ(同じこと聞いてわかりやすいほうを採用w)、コンポジティングノードというのを組んでみた。3つのオブジェクトにそれぞれ出力系統を作るのね。とりあえず、3つのオブジェクトのそれぞれの切り抜きマスクを出力することに成功。カラー画像は手動で保存。

さらに、ファイル出力ノードにスロットを追加してひとまとめにしてしまうのもやってみた(画像上)。一つのOpenEXR MultilayerファイルをPhotoshopで開くと、マスク画像3枚とカラー画像1枚が入ってる! これでいいや。

起動ファイルにコンポジティングノードをある程度作って保存しておいた。ゼロから組まなくていいのでラクだろう。

キャラ1個でマスクが1枚ならこんな感じか。真っ黒レイヤーが何十枚も生成されちゃう方式よりはマシかもしれない。

オブジェクトからマスクを作る場合、いくつかのパーツのグループというかアセット単位でマスクを作ることも可能らしい。どっちにしても、初期に試してたマテリアルからマスクを作る方法だと1キャラ1マテリアルってことになっちゃうので実用にならなかった。

・何が苦痛って、Modoで当たり前に出来てたことが、Blenderでは作法がぜんぜんちがってめちゃ複雑になったりすること。昨日の再分割の件もそうだし、今回の切り抜きマスクの出力だって、Modoだったらそれぞれのマテリアルかマテリアルグループに「アルファアウトプット」ってレイヤーを入れてやればいいだけだったのに。Blenderの場合、面倒に見えてもいろいろ融通が効くんだろうけど。

TDW_3946

 
今日からしばらく新旧の既存キャラを丸っこくリニューアルのシリーズ。

2025/09/07

ChatGPT番外編 女の子のポートレイト拡張


ChatGPT番外編。先日の2Dイラストの女の子のポートレイト、「全身を3D化できますか?」でできたもの。フラ人形だったのかw 油彩画と3Dの中間のようでおもしろい。

Blender、Modo風再分割のアドオンを作った


Blender初心者のくせに、ChatGPTと相談しながらアドオンを一つ作ってしまった。

Modoの再分割(ショートカット:D)は、サブディビジョンサーフェス的に丸っこく細分化してくれる。たいていの3Dソフトで同じことができると思ってたのだが、Blenderではそういう細分化にならない。

Blenderのメッシュの「細分化」は形状を変えずに単純に分割するだけだが、スムーズの値を上げると滑らかになるものの、膨らんでしまう(図B)。

普通にサブディビジョンサーフェスモディファイアを追加すればほしい形状になるので、これを「適用」すればいいのだが(図C)、もともとサブディビジョンサーフェスでモデリングしてるもんだから、部分をサブディビ的に細分化しようとすると非常に面倒。

で、スムーズなしの細分化したものに「頂点をスムーズに」を1かけると、それっぽくできるが、サブディビモディファイアの結果と同じにはならない(図D)。さらに「頂点をスムーズに」を0.75追加したら、ほぼ同じ形状にできた(図E)

ChatGPTに手伝ってもらって、この操作「細分化→頂点スムーズ1→頂点スムーズ0.75」をpythonスクリプトにしてもらい、メッシュメニューに登録。ちゃんと使えることを確認。

ところが、せっかくメニューに登録しても、Blenderを再起動すると消えてしまう。何か方法ないかChatGPTに聞いたら、「.py」形式で保存してアドオンにする方法を教えてくれた。読み込んで使えてます。

ショートカットをModoの再分割と同じ「D」にした。めちゃ便利!

(たぶん車輪の再発明的な「そんなの普通にみんなやってます」だろうけど、初心者としては魔法を使えたようでうれしいw)

(「細分化」「細分割」「再分割」、どれが標準かわからんけど同じ意味で使ってます)

2025/09/05

Blender、Cyclesのレンダー設定をいじって速くする


GPUレンダーCyclesのレンダー設定をいじってみた。サイズは3000pixel正方形。主に2つの「最大サンプル数」と「タイルのサイズ」をいろいろ上下させてみたところ……、

サンプル数初期設定 タイル256:8分04秒
サンプル数を2056 タイル512:5分53秒
サンプル数を2056 タイル1024:5分29秒
サンプル数を1024 タイル1024:4分50秒
サンプル数を1024 タイル256:5分40秒
サンプル数を1024 タイル1024:5分10秒
サンプル数を1024 タイル512:5分10秒

ずいぶん縮まったけどレンダリング画像の見た目に違いはない。まだまだ下げられそう。


BlenderのGPUレンダリングで5分10秒は速い!爆速!とか思いかけてたけど、Modoでは従来のレンダリングで1分57秒w もちろん比べるべきはModoのGPUレンダラーのmPathだろうけど。



BlenderのEeveeはリアルタイムレンダラーとのことだけど、準備時間がちょっとかかって計約30秒。倍寸の6000px正方形では2分45秒だった。仕上がりはCyclesのレンダリングと比べてしまうとたしかにショボいけど、こちらでなんとかなれば正真正銘の爆速レンダラーなんだけどなあ。


TDW_3945


 

BlenderでModoの機能を実現するアドオン、Matcap


Modoのオリジナル開発者の一人 田崎禎明さんが、BlenderでModoの機能を実現するアドオンをリリース。(Richard Yotさん情報)
https://tazaki.gumroad.com/l/gamki


特に、「スペースキーでFace → Edge → Vertexを循環切替」「フォールオフ付き変形」「ベンドツール」「ソフトドラッグ」などは助かりそう。

ただ、僕的にはすでにBlender式に慣れつつあったり、アドオンやショートカット編集でModo的な操作を実現してるのもあったりする。混乱するかもなあ……。

_______________________________________________
あと、同じくYotさん情報で、Cristóbal Vila氏提供のModo風の「反射」Matcap。
https://etereaestudios.com/resources/blender-resources/


・もうひとつ、Modoがオープンソース化されるのが理想という方向があったのですが、Greg Leuenberger氏とPixel Fondueが相当がんばったにも関わらず、現状ではほぼ実現は難しいとのこと。FoundryからModoをクラウドファンディングなどで買い取るにはあまりに高額だったらしい。

オープンソース化の可能性に賭けて他の3Dアプリに乗り換えをためらっていた人は、そろそろ前進しましょう、とのこと。Greg氏が動画で現状を説明しています(日本語字幕で見たけど、とても良い動画)。

2025/09/03

2025台東光祭「ウリボウたち登った」がGoogleマップに写ってる

2025台東光祭出品作品「ウリボウたち登った」がGoogleマップの航空写真に写ってる! 真上からの写真を見れるとは思わなかったw


https://maps.app.goo.gl/6vT3hdAmug3bmHmV9
ストリートビューには映ってないのが残念。


こんなアングル

2025/09/02

Geminiで2D絵からの立体化


GoogleのGeminiも少し試してみた。いきなり最初のブタちゃんがやたら出来が良くて驚いた。



回転もバッチリ。

原画

_______________________________________________




グレープちゃんは余計なアレンジを加えてきたのを元に戻すのにちょっと枚数かかった。その後、別キャラを数枚ためしたけどイマイチだった。

しかし、何度か修正しても元のキャラの形状を保ってるように見えるのはChatGPTより優れてるところかも。