2025/10/01

「2025彰化走讀藝術節」のマスコットキャラ「阿金 & 水水」

「2025彰化走讀藝術節」という台湾彰化県のアートイベントのマスコットキャラ(兼 展示作品)を作りました。


彰化県の主要産業の「水道関連の金物」をモチーフに、ゆるキャラ的にデザインしました。「水水怪 AquaMo」、それぞれ「阿金」「水水」です。

インフレータブル/バルーンは彰化縣立美術館の屋上に設置。

翻訳「彰化の水処理機器産業」

この作品は彰化を代表する水回り金具産業からインスピレーションを得ています。アーティストはパイプ、蛇口、その他の部品を、遊び心と未来感を兼ね備えた、親しみやすく幻想的な2体の生き物へと昇華させています。

「水水」は滑らかで柔らかなフォルムを誇り、「阿金」はがっしりとした体格と頭に配管を載せ、安定感と信頼感を兼ね備えた金具職人のイメージを体現しています。腰回りの金具やバルブのディテールは、彼のプロ意識と粘り強さを強調し、鑑賞者はリラックスした楽しい雰囲気の中で、水回り金具産業の職人技と地域精神を体感することができます。 













2025/09/30

Blenderを使う合理性とは?

Blenderで一週間くらいかかるだろうと思ってた数個の3Dモデリング案件が「大至急!」に。昨夜から8時間ほどのModo作業で完成させた。

一ヶ月ぶりのModo本格使用。本気で使えば忘れはじめてたキーボードショートカットも無問題。怒涛の勢いでモデリング、UV展開、テクスチャペイント!

やっぱModoの作業効率すごいわ。あらためて、急いでBlenderに移行する必要があるのか?って思ったw

20年対2ヶ月の経験の違いも大きいけど、BlenderはModoにくらべて同じことするのに何倍も手間がかかることがある。

・初期にはModoでモデリングし、レンダリングやアニメーションには3ds MaxやCinema4Dを使うのは以前は普通にやってたわけで、Blenderをそのように使うのも悪くない。

・ポリゴンモデラーとしてのModoがどうかしてるくらい使いやすく手数が少なくて済むのは贔屓目ではなく確かにそうなんだろうから、わざわざ僕的なモデリングをBlenderでやる意味は本当はあんまり無い。

・なんでBlenderやろうとしてるかというと、「最後まで超マイナーだったModo→世界標準3DソフトになりつつあるBlenderを使いたい!」 と、「開発終了したソフトにこだわり続けるのはいかがなものか?」。しかし、どちらも気分的なもので、合理的な理由じゃない。

・Modoの「起動できるパソコンがある限り無料で使い続けられる」は、めちゃくちゃ合理的だろう。

・Modoを完全に捨て去り、Blenderに完全移行するってのも合理的じゃないわ。

・ただ、Blenderを使えるようになっておけば、Modoの時代には考えられなかった流れや新機能についていくことができる、ってのも合理的。

・現実にModoを使うの禁止されてるわけでも起動できなくなってるわけでもないんだから、利点のあるところは使えばいいんだけどね。

・余談「最後まで超マイナーだったModo」。使用ソフトを答えて相手が知ってたことは一度もないし、「Modo」を音声として聞いたのは、Modo関係者からに限られたw そういえば、テレビ「紅白メガ幸子巨大ロボ」の制作風景の画面にModoが映ってて驚いたことあるな。

2025/09/28

Blender ポリゴンのコピペ問題

Blenderの大きな不満「複数のファイルを同時に開けず、ポリゴンオブジェクトのコピペが不自由」。どちらも、既存ファイルのパーツをコピペして組み立てるのに不可欠。なんでそこが不自由なままにしてあるんだろ?

アベンドはアイテムに名前をつけてないと役に立たない。アセットに何百個のパーツを登録するか……。


Modoでは今までのいろんなパーツや形状の使えそうなものを集めたファイルがあり、そこからコピペして使ってた。

「一度モデリングしたものは二度とモデリングしてはいけない」

なるべく既存のパーツを利用するのが速いモデリングの秘訣。5本指の手を毎回作ってる人なんていないだろう。僕の場合「完成パーツをそのままくっつける」ってよりも、作りたい形状に近い基本形状を元に加工するほうが多いけど。

「Cut / Copy / Paste」というアドオンを使えばポリゴンパーツのコピペはできるんだけど、ランダムにエッジにシャープがかかってるのを修正しなきゃいけないし、挙動がよくわからなかったりする。


ああっ! アセットブラウザで元のBlenderファイルを開くのやってみたら、なんとBlenderのウインドウがいくつも開いた! 相互にポリゴンパーツのコピペ(アドオン使用)もできた!


ウインドウというかファイルがいくつも開いてるのかと思ったら、Blenderが複数起動してたw この状態でコピペ可能。

普通に「新規ウインドウを開く」的にできないのかな?と思ったら、Macではドックに「パッケージの内容を表示」からBlenderを登録していくつも開けると教えてもらった。「Blenderをいくつかコピーしてそれぞれ起動」でもイケる(Windowsでは普通にいくつも起動可)。

……どうも、ポリゴンのコピペは当たり前の機能と思ってたけど、そうでもないらしい。僕がModoの前に使ってたLIGHTWAVE 3DやCinema4Dでは普通にできたし。

2025/09/25

Blender、なかなか慣れない


Blender。ショートカット含めて手に覚えさせようと、シンプルキャラ「まるこいシリーズ」のスケッチを元にTDWキャラを本番として作りはじめて約3週間。現在14匹目。

初期には半日かかって一つ作れるかどうかだったのが、さすがに少しずつ早くなってきて、2時間あればなんとかレンダリングまでたどり着けるようになってきた(Modoなら30分もかからない)。

ただ、モデリングもテクスチャペイントも、今のところ、ぜんぜん楽しくないw 慣れてくれば楽しくなってくるだろうと思ってたのだが。

Modoで使っていた対応する機能やショートカットはだいたい網羅してて、機能的には足りてるんだけど、Modoだとワンタッチで済むようなことが何段階も操作しないとダメだったりする。

あと、ズームやスクロール・回転の動きが思うようにならない。プリファレンスで数値をいじってるんだけど、まだまだ違和感がある。

20年間でModoに慣れきっちゃってるので、3週間でBlenderに馴染むのは無理だろうけど。まあ、今でも毎日2〜3項目は「こうすればいいんだ!」っていうメモが増えていってるので、そのうち慣れるだろ……。(一方、Modoのショートカットをどんどん忘れてて手が動かず、唖然とするw)

半年くらいたって、「何に引っかかってたんだろ?」になることを期待。

まだFur/毛の表現が手付かずで残ってるな……。

2025/09/15

Blender ライティングが良くなってきた

昨日アップしたTDW_3948は100%Modo製だけど、ライティングがちょっとイマイチかなと気になってた。で、ここ数日やってた「BlenderでChatGPTのイラスト立体化的のレンダリングを真似してみる」で作ったスタジオセットにTDW_3948を読み込んでレンダリングしてみた。


背景の白飛ばしまではやってないけど、ちょっといい感じのライティングになってきた模様。


あと、昨日書いてた「カラーテクスチャとレンダリングの色の一致」についても、ほぼ同じ色が実現できてる。


2025/09/14

Blenderのカラーマネジメントについて



Blenderのカラーマネジメントについて、検索してもピンポイントな答えが見つからないので、ChatGPTとGrokに聞いてみた。

質問_______________________________________________
レンダープロパティで色空間をsRGBに、ガンマを1.0にすると、Blender上のレンダリング画像と、Photoshop上のレンダリング画像の色が同じになるのはわかってた。

で、問題なのはテクスチャ画像の色。Modoでは画像をリニアで扱うため、画面のガンマ2.2の逆算の「ガンマ0.454」にしないと白っぽく表示された。

同じことをBlenderで再現するには、ガンマノードをテクスチャの色出力とプリンシプルBSDFの間に挟んで、ガンマ値を1.1〜1.2くらいにすると、テクスチャ本来の色でレンダリングされるようになった気がする。

この考えは合っているでしょうか?

答え_______________________________________________

「ガンマノードで補正する」というのは、Modoとの違いを強引に合わせただけで、Blenderの標準的な使い方ではありません。

Modoはテクスチャをリニアで扱うのでガンマ0.454で変換の必要があったが、Blenderは自動色空間変換されてるため必要ない。sRGBを基本にすれば大丈夫。

Blenderでは「テクスチャノードのColor Space設定を正しく使う」のが正解です。Blender内部では基本的に リニアsRGB を使います。

sRGB(デフォルト):色として扱う場合(Base Color など)はこちら。内部的に自動でリニア変換されます。

Non-Color: 値データ(法線マップ、ラフネス、スペキュラなど)の場合はこちら。ガンマ変換されません。

Photoshopとの一致を狙うなら、Render Properties → Color Management → View Transform を Standard に、Lookを None、Exposure/Gamma を 0/1 にして、保存時に sRGB にしておくと混乱が減ります。

Blenderで出した画像を正しくsRGBとして読み込み → 作業用のAdobeRGBに変換、という流れになります。

_______________________________________________

おお〜!両方のAIで答えはほぼ同じ。信用できそう。

画像の赤線の部分だけこのように設定すれば良いらしい。テクスチャが薄く見えたりするのはHDRIや照明の具合でなんとかするべきで、カラマネをいじってはいけないということ。

(あと、印刷物を前提にしたAdobeRGBを標準にするのはやめ、sRGBで統一していいのではないか?という話にもなった。そのへんずっと思ってたけど長くなるので別の機会に書く)

ChatGPT、スケッチから立体化2 (その3)

カラースケッチまたは2Dイラストからの立体化。生成された画像と手作業で作った3DCGと、違和感がなくて驚いたものを中心に投稿。







「スケッチ」「AI生成」「3DCG」の比較。へたすりゃ3DCGより良いものもあったりする。「わざわざ3DCGで作る必要ある?」って。