画像生成AI Stable Diffusionで遊ぶ

7月にDALL-E2Midjourneyが公開されて以降、画像生成AIの話題が尽きない。
ほんの2,3ヶ月の間に、文章から画像を生成するtext to imageの新しい研究やサービス・ツールへの移植が毎日のように次々と公開されている。
https://note.com/yamkaz/m/mad0bd7dabc99

オイラも8月にMidjourneyを無料枠で試してみた↓



Stability.Aitext to image手法の1つであるStable Diffusionオープンソースで公開したことで、text to imageが色んなサービスやツールに組み込まれて一気に手軽に試せるようになった。
https://huggingface.co/CompVis/stable-diffusion-v1-4
https://github.com/CompVis/stable-diffusion


スポンサーリンク


text to imageを利用できる有料サービスに課金しても良いけど、今はかなり円安なのでできれば自分のPCローカルでtext to image動かして好き放題遊びたい。そこそこ良いスペックのPCはあるので。
デスクトップPCを新調した!
色々と準備していたデスクトップPC新調の準備がようやく整った。 メーカー在庫が欠品しているものもあって、なかなか必要なパーツが揃わなかったのだ。 最終的に以下の構成になった。 ケース:Thermaltake Core V71 TG 電源:S...

NVIDIA GeForce RTX 3080を購入
7月にデスクトップPCを新調したけど、グラフィックスボードだけは新製品が出るのを待っていた。 NVIDIAのGeForce RTX 30シリーズが9月に発表され、 発売と同時にGIGABYTE GV-N3080GAMING OC-10GDを...


少し調べてみると、今のところ最も手軽にtext to imageをローカルで試せるのはStable DiffusionをGUIで包んだこちらのアプリケーション↓

Stable Diffusion GRisk GUI


Stable Diffusionのモデルを実行するためのインターフェイスです。つまり、テキストのpromptを入力するとそれに対応した画像が返ってきます。

これは超アルファ版であるため、多くのバグがある可能性があります。Stable Diffusion GRisk GUI.exeを実行するだけで使用できます。
生成する画像の解像度設定は64の倍数(64, 128, 192, 256など)である必要があり、512×512解像度が最も良い生成結果を得られます。

重要事項:

  • 一部のGTX 1660カードでは、Use Half-Precisionで実行すると問題が発生すると判明しています。(現時点でGUIではこのオプションにしか対応していません)
  • Samples per promptはまだ機能しておらず、promptごとに常に1つの画像が生成されます。同じpromptを複数行繰り返せばSamples per promptと同等の効果を得られます。
  • 512X512で良好な結果を得られますが、他の解像度は品質に影響を与える可能性があります。
  • Step数を多くするとより品質が向上します。Step数を増やしてもメモリ消費量は増えず、処理時間が長くなります。
  • 150 Step以下から始めると良いでしょう。
  • .exeの起動時に以下のエラーが表示されてもアプリは引き続き動作します。


torchvision\io\image.py:13: UserWarning: Failed to load image Python extension:

torch\_jit_internal.py:751: UserWarning: Unable to retrieve source for @torch.jit._overload function: .

warnings.warn(f"Unable to retrieve source for @torch.jit._overload function: {func}.")

torch\_jit_internal.py:751: UserWarning: Unable to retrieve source for @torch.jit._overload function: .

warnings.warn(f"Unable to retrieve source for @torch.jit._overload function: {func}.")

オイラの環境だと640×640解像度まではエラー無く動作したけど、推奨解像度の512×512の方が生成品質は良くなるらしいです。
https://note.com/abubu_nounanka/n/n496a98677201

追記:もっとリッチなGUIアプリがあった↓


スポンサーリンク

NMKD Stable Diffusion GUI


https://github.com/n00mkrad/text2image-gui
https://pajoca.com/stable-diffusion-gui-nmkd/
https://pajoca.com/stable-diffusion-gui-img2img/



promptとパラメータを色々工夫して好みの画像生成を模索してみた結果↓





























ハイスペックなPCを持っていれば、パソコンを起点とした遊びは充実するね。

もはやGANの時代ではないらしい。Stable Diffusionの仕組みについてちゃんと勉強したいなぁ。
https://ja.stateofaiguides.com/20221012-stable-diffusion/

追記:Stable Diffusionをスマホローカルで動作させた例もチラホラ



スポンサーリンク

関連記事

ZBrushでゴジラ2001を作ってみる 身体のアタリを作る
UnityのTransformクラスについて調べてみた
ミニ四駆を改造してBluetoothラジコン化する
PyDataTokyo主催のDeep Learning勉強会
Adobe Photoshop CS5の新機能
Unity MonoBehaviourクラスのオーバーライド関数が呼び出される順番
RefineNet (Multi-Path Refinement Network):ディープラーニン...
「うぶんちゅ!」
UnityでOpenCVを使うには?
HDDの中身を3Dで視覚化するフリーソフト「StepTree」
iPhone・iPod touchで動作する知育ロボット『ROMO』
NumSharp:C#で使えるNumPyライクな数値計算ライブラリ
3Dスキャンに基づくプロシージャルフェイシャルアニメーション
SegNet:ディープラーニングによるSemantic Segmentation手法
池袋パルコで3Dのバーチャルフィッティング『ウェアラブル クロージング バイ アーバンリサーチ』
ミニ四駆を赤外線制御したりUnityと連携したり
MLDemos:機械学習について理解するための可視化ツール
カメラ付きの空飛ぶリストバンドで自撮りする発明(ウェアラブル・ドローン)
オープンソースのテクスチャマッピングシステム『Ptex』
OpenVDB:3Dボリュームデータ処理ライブラリ
R-CNN (Regions with CNN features):ディープラーニングによる一般物体...
ZBrushからBlenderへモデルをインポート
3DCGのモデルを立体化するサービス
ファンの力
Kinect for Windows v2の日本価格決定
PSPNet (Pyramid Scene Parsing Network):ディープラーニングによ...
ZBrushでカスタムUIを設定する
ZBrushでアヴァン・ガメラを作ってみる 甲羅のバランス調整
布地のシワの法則性
Profilograph
3Dモデルを立体視で確認できるVRアプリを作っている
FabCafe主催 Fabミニ四駆カップ 2014
Google製オープンソース機械学習ライブラリ『TensorFlow』のWindows版が公開された
TeleSculptor:空撮動画からPhotogrammetryするツール
DCGAN (Deep Convolutional GAN):畳み込みニューラルネットワークによる敵...
MythTV:Linuxでテレビの視聴・録画ができるオープンソースプロジェクト
UnityのAR FoundationでARKit 3
自前Shaderの件 解決しました
CEDEC 3日目
CGALDotNet:計算幾何学ライブラリ CGALのC#ラッパー
イタリアの自動車ブランドFiatとゴジラがコラボしたCMのメイキング
ミニ四駆のラジコン化情報

コメント