2025/10/29

yoshii.com は20日ぶりに復活しました

yoshii.com は、10月27日の14時頃に復活しました。
 
10月8日から20日間も停止していました。メールやウェブサイトが止まり、大量の各種アカウント変更やメール変更依頼の作業、ドメイン移管のための調査や手配。28年も使ってきたドメインを失う不安も大きかったし、止まっていた間に逃したチャンスがあったかもしれない。

とりあえず、移管に向けて動いています。

Wacom One 14 「う〜〜〜ん、フチ狭っ」




Wacom One 14。一ヶ月前の発売日に注文して翌日に届いたのだが、開封してびっくり。小さくなってる!

初代Wacom One 13と比較して、Wacom One 14は対角で1インチ画面サイズが広くなったのだが、本体サイズは逆に13よりも約1インチ小さい。つまり、その分フチが狭くなってる。

……何度も言ってきたけど、ペンタブ/液タブのフチが狭くなって喜ぶのは「まだ気づいてない人」か「描かない人」と思えてしかたない。コンパクト化と引き換えに描きにくくしてどうする??

フチがなかったら画面の隅まで描けないんだよ。手がずり落ちる。画面の右と下に手を置いて描くとしたら、描ける範囲は左上にハガキサイズくらい。(小指を支点にして手を浮かせ気味に描いてる人は大丈夫だろうけど)

かつて人間工学を売りにしていたWACOMの製品とは思えないデザイン。以前はちゃんと広いフチがついていたのは、設計者自身も「フチは必要」と認識していたからのはずなのに。

まあ、傾斜脚も省略されたことだし、「必要ならフチや傾斜台を自作して各自工夫してね」ということなのかもしれない。旧Wacom One 13のフチも狭いので、僕はハレパネでフチを作って使ってきたのでした。

・良い点など

液タブとしては↑のフチ関連以外の不満はない。ペンのサイドボタンが2つになったのもうれしい。サードーパーティの鉛筆型ペンも使えるし。こんな液タブが3万円台で買えるなんてどうかしてるw

液タブとしてだけでなく、普通に板タブとして使える。画面オフにはできないようだけど、いつものようにカッティングマットを乗せて普段は板タブとして使い、必要なときだけ液タブとして使える。設定すればプレシジョンモードが使えるので、板タブとしては完璧。サイズも重さも旧Intuos Pro Mとほぼ同じなので、出張時などどちらを持って行くか迷う必要がないw

僕の場合、初代M1 MBP13を27インチディスプレイに接続して使ってるんだけど、外付けは1画面しか出力できない。そのため液タブを使うときは27インチを外して電源を差し替える必要がある。Wacom Oneをさっと繋いで使えるのは、MBPを新調してからになりそう。その意味で、さっと繋いで使えるのは今のところiPadのほうが手軽。無線でも使えるし。

とはいえ、旧Wacom One 13のようにコンセント接続が不要になった分、ずいぶん手軽になった。「液タブが苦手なことを思い出して、大きな液タブを欲しくならないようにする防波堤」としては最高w

TDW_3963


 

2025/10/11

ChatGPT、カラースケッチから立体化「ペンギン」

ChatGPT、カラースケッチから立体化。8月の未アップ分続き。質感を変えたバリエーションはあまり作ってないけど、たまたまやってみたもの。


1枚目 陶器の質感で立体化。これ、ボリューム感といい質感といい、最高。


2枚目 SWAROVSKIの質感で立体化。


3枚目 透明度を上げてもらおうと思ったら、色が消えてしまい、アヒルになったw


4枚目 光沢のある3DCG調で立体化。


5枚目 原画のカラースケッチ


6枚目 3DCG、ModoでモデリングしたTDW作品。スケッチとのプロポーションの違いは意図的に頭部を大きくしたため。

TDW_3957


 

2025/10/09

サーバー不具合と連絡の件(10月27日に復活しました)

(10月27日に復活しました)

yoshii.comとメールのサーバーが10月8日の夜から落ちてるようです。
連絡が必要な方は、SNSのメッセージなどを利用していただければありがたいです。

イラストレーションファイルWeb
https://i.fileweb.jp/yoshiihiroshi

Facebook
https://www.facebook.com/hiroshi.yoshii


X
https://x.com/hiroshiyoshii

Instagram
https://www.instagram.com/hiroshiyoshii/

Behance
https://www.behance.net/yoshii


LinkedIn
https://www.linkedin.com/in/hiroshi-yoshii-39788332/

●作品ポートフォリオは上記のBehanceか、Adobe myportfolioにあります
https://hiroshi.myportfolio.com/

2025/10/06

ChatGPT、イラストから立体化 8月後半分その3


1993年、「アセント」という予備校の広報誌みたいなものに連載していたイラストが元。これも完璧な立体化。



1995年、「INTERNET Surfer」という雑誌の表紙のためのイラストが元。原画にはない下部を作ってくれちゃってる。



1996年、月刊アスキーのためのイラストが元。このタイプの「鉛筆画に着彩」的な画風は定着できなかったな。

ChatGPT、イラストから立体化 8月後半分その2

8月後半分のアップが止まってた。急いでアップする。

1992年にPainterで描いたものを元に生成。顔など表現に腕が追いついていなかった部分まで完璧!





1993年。Painter。上の作品と合わせて、1993年2月の個展に出品したものを元に生成。こちらも完璧。ざらざらしたテクスチャを毛糸っぽい質感に解釈してるのが面白い。


1994年。「季刊 思想と現代」という雑誌の表紙のために描いたイラストが元。以前何かで見たヒロエニムス・ボッシュの絵を切り抜いてイラストとして使用したものが気になってて、それっぽく描いてみたもの。

2025/10/03

Sora2を3Dクリエイターとしてどう受け止めるか?

Sora2を3Dクリエイターとしてどう受け止めるか?についてFacebookに書いたこと。

1:こんな時代だからこそCG屋には人間臭さが必要なのだ

2:まだCGなんてやってんの?な世界。

3:CGの時代は終わり。生成AIにまかせよう。

4:生成AIなんて駄目じゃ!

5:生成AIに人の心を。Sora3

モジョン氏による追記

これも深い考察
「今日は「3DCGが死ぬ」の、社会的な面のはじまりの日だったと思う。」

昨日からSora2で生成した動画が出回り始めてるけど、違和感かなり小さくなってる。セリフもちゃんとしゃべるし、実写かどうかの見分けが難しくなってる。キャラ動画作ってる人もいるし、マジな話、3DCGによるアニメーション制作って無用の長物になりつつあるのかもしれん。

(もちろん上のリンクの生成動画の面白さは「AIだから」はあんまり関係ないんだけどね。)

面倒な習得やしんどい作業がなくなって参入障壁が低くなるのは人類全体にとってはいいことなのかもしれんけど、僕らこれから何やったらいいんだ??w 誰もができるなら「参入」すら意味ない。

イメージできてテキストさえ書ければ、大袈裟じゃなく、本当に映画だって作れる。愛場大介さんが「スター・ウォーズ新シリーズは各自好きなように生成したらいい」と言ってるようにw

今のところ、「オリジナルのスケッチを描けること」は強みにはちがいないけど、一般に支持されやすい形状や色を作るのはAIの得意とするところ。

僕らが「個性」と思ってるのはそこからはずれた「癖」みたいなものに過ぎず、それさえAIはたぶん生成しはじめるに違いない……。

◯「何やったらいいんだ?」については……「ハンドメイドに近い立体作品」はひとつの希望だろうな。まあ、ミュージシャンという先行例があるわけで。すると、コンサートに相当するのはやはり展覧会ってことになるのか

◯Blender習得にまだやる気満々なのは本当のことなんだけど、この状況を見ると、3DCG消滅というか技術の需要がなくなるのは意外に早いのかもしれない……1年後とかw Blender習得に意味がなくなるとしたら、スケッチ手段としてModoが生きてくるのかもしれん。

↑ Modoって新規参入できないんだよ。新しく使いたくなった人がいてもライセンスの入手は不可。恒久ライセンスは特権w

2025/10/01

Blender、ミラーコピーを自動化してみた


Blender、Modoの「ミラー」のように、選択したポリゴンをミラーコピーする手順は、3段階の手数が必要で、少々面倒。 複製→原点を中心にスケールを「-100%」→ノーマル(法線)を反転
ChatGPTに「これをpythonスクリプトにできますか?」「アドオンにしてください」で、あっさり成功! 軸も選べる。右のスザンヌの顔左半分のポリゴンを選択してアドオンのミラーコピーを実行の結果が画像。
Modoと同じショートカット「shift+V」にしたかったけど、他で使われてるので「command+shift+V」で登録。便利!
Blenderいろいろ不自由とか言いつつも、こうやって個別に便利にしていけるもんなんだろうな。

「2025彰化走讀藝術節」のマスコットキャラ「阿金 & 水水」

「2025彰化走讀藝術節」という台湾彰化県のアートイベントのマスコットキャラ(兼 展示作品)を作りました。


彰化県の主要産業の「水道関連の金物」をモチーフに、ゆるキャラ的にデザインしました。「水水怪 AquaMo」、それぞれ「阿金」「水水」です。

インフレータブル/バルーンは彰化縣立美術館の屋上に設置。

翻訳「彰化の水処理機器産業」

この作品は彰化を代表する水回り金具産業からインスピレーションを得ています。アーティストはパイプ、蛇口、その他の部品を、遊び心と未来感を兼ね備えた、親しみやすく幻想的な2体の生き物へと昇華させています。

「水水」は滑らかで柔らかなフォルムを誇り、「阿金」はがっしりとした体格と頭に配管を載せ、安定感と信頼感を兼ね備えた金具職人のイメージを体現しています。腰回りの金具やバルブのディテールは、彼のプロ意識と粘り強さを強調し、鑑賞者はリラックスした楽しい雰囲気の中で、水回り金具産業の職人技と地域精神を体感することができます。 













2025/09/30

Blenderを使う合理性とは?

Blenderで一週間くらいかかるだろうと思ってた数個の3Dモデリング案件が「大至急!」に。昨夜から8時間ほどのModo作業で完成させた。

一ヶ月ぶりのModo本格使用。本気で使えば忘れはじめてたキーボードショートカットも無問題。怒涛の勢いでモデリング、UV展開、テクスチャペイント!

やっぱModoの作業効率すごいわ。あらためて、急いでBlenderに移行する必要があるのか?って思ったw

20年対2ヶ月の経験の違いも大きいけど、BlenderはModoにくらべて同じことするのに何倍も手間がかかることがある。

・初期にはModoでモデリングし、レンダリングやアニメーションには3ds MaxやCinema4Dを使うのは以前は普通にやってたわけで、Blenderをそのように使うのも悪くない。

・ポリゴンモデラーとしてのModoがどうかしてるくらい使いやすく手数が少なくて済むのは贔屓目ではなく確かにそうなんだろうから、わざわざ僕的なモデリングをBlenderでやる意味は本当はあんまり無い。

・なんでBlenderやろうとしてるかというと、「最後まで超マイナーだったModo→世界標準3DソフトになりつつあるBlenderを使いたい!」 と、「開発終了したソフトにこだわり続けるのはいかがなものか?」。しかし、どちらも気分的なもので、合理的な理由じゃない。

・Modoの「起動できるパソコンがある限り無料で使い続けられる」は、めちゃくちゃ合理的だろう。

・Modoを完全に捨て去り、Blenderに完全移行するってのも合理的じゃないわ。

・ただ、Blenderを使えるようになっておけば、Modoの時代には考えられなかった流れや新機能についていくことができる、ってのも合理的。

・現実にModoを使うの禁止されてるわけでも起動できなくなってるわけでもないんだから、利点のあるところは使えばいいんだけどね。

・余談「最後まで超マイナーだったModo」。使用ソフトを答えて相手が知ってたことは一度もないし、「Modo」を音声として聞いたのは、Modo関係者からに限られたw そういえば、テレビ「紅白メガ幸子巨大ロボ」の制作風景の画面にModoが映ってて驚いたことあるな。

2025/09/28

Blender ポリゴンのコピペ問題

Blenderの大きな不満「複数のファイルを同時に開けず、ポリゴンオブジェクトのコピペが不自由」。どちらも、既存ファイルのパーツをコピペして組み立てるのに不可欠。なんでそこが不自由なままにしてあるんだろ?

アベンドはアイテムに名前をつけてないと役に立たない。アセットに何百個のパーツを登録するか……。


Modoでは今までのいろんなパーツや形状の使えそうなものを集めたファイルがあり、そこからコピペして使ってた。

「一度モデリングしたものは二度とモデリングしてはいけない」

なるべく既存のパーツを利用するのが速いモデリングの秘訣。5本指の手を毎回作ってる人なんていないだろう。僕の場合「完成パーツをそのままくっつける」ってよりも、作りたい形状に近い基本形状を元に加工するほうが多いけど。

「Cut / Copy / Paste」というアドオンを使えばポリゴンパーツのコピペはできるんだけど、ランダムにエッジにシャープがかかってるのを修正しなきゃいけないし、挙動がよくわからなかったりする。


ああっ! アセットブラウザで元のBlenderファイルを開くのやってみたら、なんとBlenderのウインドウがいくつも開いた! 相互にポリゴンパーツのコピペ(アドオン使用)もできた!


ウインドウというかファイルがいくつも開いてるのかと思ったら、Blenderが複数起動してたw この状態でコピペ可能。

普通に「新規ウインドウを開く」的にできないのかな?と思ったら、Macではドックに「パッケージの内容を表示」からBlenderを登録していくつも開けると教えてもらった。「Blenderをいくつかコピーしてそれぞれ起動」でもイケる(Windowsでは普通にいくつも起動可)。

……どうも、ポリゴンのコピペは当たり前の機能と思ってたけど、そうでもないらしい。僕がModoの前に使ってたLIGHTWAVE 3DやCinema4Dでは普通にできたし。

2025/09/25

Blender、なかなか慣れない


Blender。ショートカット含めて手に覚えさせようと、シンプルキャラ「まるこいシリーズ」のスケッチを元にTDWキャラを本番として作りはじめて約3週間。現在14匹目。

初期には半日かかって一つ作れるかどうかだったのが、さすがに少しずつ早くなってきて、2時間あればなんとかレンダリングまでたどり着けるようになってきた(Modoなら30分もかからない)。

ただ、モデリングもテクスチャペイントも、今のところ、ぜんぜん楽しくないw 慣れてくれば楽しくなってくるだろうと思ってたのだが。

Modoで使っていた対応する機能やショートカットはだいたい網羅してて、機能的には足りてるんだけど、Modoだとワンタッチで済むようなことが何段階も操作しないとダメだったりする。

あと、ズームやスクロール・回転の動きが思うようにならない。プリファレンスで数値をいじってるんだけど、まだまだ違和感がある。

20年間でModoに慣れきっちゃってるので、3週間でBlenderに馴染むのは無理だろうけど。まあ、今でも毎日2〜3項目は「こうすればいいんだ!」っていうメモが増えていってるので、そのうち慣れるだろ……。(一方、Modoのショートカットをどんどん忘れてて手が動かず、唖然とするw)

半年くらいたって、「何に引っかかってたんだろ?」になることを期待。

まだFur/毛の表現が手付かずで残ってるな……。

2025/09/15

Blender ライティングが良くなってきた

昨日アップしたTDW_3948は100%Modo製だけど、ライティングがちょっとイマイチかなと気になってた。で、ここ数日やってた「BlenderでChatGPTのイラスト立体化的のレンダリングを真似してみる」で作ったスタジオセットにTDW_3948を読み込んでレンダリングしてみた。


背景の白飛ばしまではやってないけど、ちょっといい感じのライティングになってきた模様。


あと、昨日書いてた「カラーテクスチャとレンダリングの色の一致」についても、ほぼ同じ色が実現できてる。


2025/09/14

Blenderのカラーマネジメントについて



Blenderのカラーマネジメントについて、検索してもピンポイントな答えが見つからないので、ChatGPTとGrokに聞いてみた。

質問_______________________________________________
レンダープロパティで色空間をsRGBに、ガンマを1.0にすると、Blender上のレンダリング画像と、Photoshop上のレンダリング画像の色が同じになるのはわかってた。

で、問題なのはテクスチャ画像の色。Modoでは画像をリニアで扱うため、画面のガンマ2.2の逆算の「ガンマ0.454」にしないと白っぽく表示された。

同じことをBlenderで再現するには、ガンマノードをテクスチャの色出力とプリンシプルBSDFの間に挟んで、ガンマ値を1.1〜1.2くらいにすると、テクスチャ本来の色でレンダリングされるようになった気がする。

この考えは合っているでしょうか?

答え_______________________________________________

「ガンマノードで補正する」というのは、Modoとの違いを強引に合わせただけで、Blenderの標準的な使い方ではありません。

Modoはテクスチャをリニアで扱うのでガンマ0.454で変換の必要があったが、Blenderは自動色空間変換されてるため必要ない。sRGBを基本にすれば大丈夫。

Blenderでは「テクスチャノードのColor Space設定を正しく使う」のが正解です。Blender内部では基本的に リニアsRGB を使います。

sRGB(デフォルト):色として扱う場合(Base Color など)はこちら。内部的に自動でリニア変換されます。

Non-Color: 値データ(法線マップ、ラフネス、スペキュラなど)の場合はこちら。ガンマ変換されません。

Photoshopとの一致を狙うなら、Render Properties → Color Management → View Transform を Standard に、Lookを None、Exposure/Gamma を 0/1 にして、保存時に sRGB にしておくと混乱が減ります。

Blenderで出した画像を正しくsRGBとして読み込み → 作業用のAdobeRGBに変換、という流れになります。

_______________________________________________

おお〜!両方のAIで答えはほぼ同じ。信用できそう。

画像の赤線の部分だけこのように設定すれば良いらしい。テクスチャが薄く見えたりするのはHDRIや照明の具合でなんとかするべきで、カラマネをいじってはいけないということ。

(あと、印刷物を前提にしたAdobeRGBを標準にするのはやめ、sRGBで統一していいのではないか?という話にもなった。そのへんずっと思ってたけど長くなるので別の機会に書く)

ChatGPT、スケッチから立体化2 (その3)

カラースケッチまたは2Dイラストからの立体化。生成された画像と手作業で作った3DCGと、違和感がなくて驚いたものを中心に投稿。







「スケッチ」「AI生成」「3DCG」の比較。へたすりゃ3DCGより良いものもあったりする。「わざわざ3DCGで作る必要ある?」って。