画像生成AIツール『Stable diffusion web UI』インストール手順まとめ【保存版】

(注記)本記事には広告リンクが含まれています。

画像生成AIツール『Stable diffusion web UI』インストール手順まとめ【保存版】 AI画像生成
2023年03月01日
画像生成AI(人工知能)ツール『Stable diffusion web UI 』のインストール手順基本的な使い方日本語化エラー解決無料利用する方法操作パネル(UI)概要、LoRaの使い方プロンプトスプリクト解説します。

だいやまーくSD-WebUI拡張機能コントロールネット&オープンポーズエディターの使い方』NEW

『Stable diffusion web UI』超おすすめ拡張機能コントロールネット&オープンポーズエディター』の実用的な使い方写真&YouTube動画で解説。↓
SD-WebUI拡張機能コントロールネット&オープンポーズエディターの使い方
AI画像生成ツール『Stable diffusion web UI』用の超おすすめ拡張機能『コントロールネット&オープンポーズエディター』の実用的な使い方を写真付き説明&YouTube動画で詳しく解説します💕 画像生成AIツール『Stabl...
kozi001.com
2023年04月16日

だいやまーく【StableDiffusion】2024年春🌸必須系👑お勧め拡張機能10選‼😊👍NEW

✅本動画は2024年春🌸SDWebUIをインストールしたら、スグに入れたい必須系のお勧め拡張機能を10個厳選し、機能概要&使い方を解説しています😊👍

だいやまーくAI活用【ChatGPT🤖Stable Diffusion🎨画像編集ソフト🖼️】一撃!無料神ツール😱8倍拡大アップスケール操作テクニック‼NEW

✅本動画は「ビジネスの効率化」と「日常生活の質を高める」為の実用的なテクニックを、実際に各ツールを操作しながら解説しています。
AI画像生成SD-WEB UIおすすめ拡張機能まとめ忘備録【保存版】
AI画像生成ツール『Stable diffusion web UI』お勧め拡張機能の概要や使い方、GitHubリンク等をYouTube動画と共に解説するまとめ忘備録【保存版】です。 NEW!YouTube(随時更新中)👑チャンネル名:のいち...
kozi001.com
2023年06月01日
のいちゃん
目次』をクリック♪ご活用下さい💕

この記事の目次

『Stable diffusion web UI』安定した拡散ウェブ・ユーザー・インターフェースとは

Stable diffusion web UI 』はウェブブラウザ 操作可能ユーザーインターフェース (UI)を使い、ユーザーが任意に指定した条件(テキストや画像など)に従いAIクリエイティブ画像自動生成するツールです。
GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI
Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub...
github.com

『Stable diffusion web UI Forge』安定した拡散ウェブ・ユーザー・インターフェース・フォージとは

2024年2月初旬にイルヤスフィール氏(Mr.Illyasviel)が公開した『Stable diffusion web UI Forge』は元のWebUIと比較して、GPU処理の高速化(推論速度30〜75%)、VRAM使用量の削減が期待できます。NEW
SDXL+ControlNet を使用する場合、最大数は約2倍、速度は30〜45%高速化されます。
GitHub - lllyasviel/stable-diffusion-webui-forge
Contribute to lllyasviel/stable-diffusion-webui-forge development by creating an account on GitHub.
github.com
現在使用中のパソコンが低スペックだと感じてる方にもお勧め💕
Stable diffusion web UI Forge』は「ControlNet と TiledVAE」が既に統合されている為、拡張機能として新たに導入する必要がありません。
コントロールネットに追加で必要なのはモデルのみです。

『Stable diffusion web UI reForge』安定した拡散ウェブ・ユーザー・インターフェース・リフォージとは

Stable Diffusion WebUI reForge』は、Forge をさらに発展させた実験的な派生プロジェクト。主に UIや機能拡張の改善に力を入れており、より洗練された操作体験を目指している。
Forge の高速化・軽量化を引き継ぎつつ、新しいUI設計やワークフローを試験的に導入。追加機能や最新機能の検証環境としての側面が強い。
GitHub - Panchovix/stable-diffusion-webui-reForge
Contribute to Panchovix/stable-diffusion-webui-reForge development by creating an account on GitHub.
github.com

『Stable diffusion web UI』動作環境(前提要件)推奨スペック

Stable diffusion web UI 』はNVIDIA GeForce VRAM(ビデオメモリ)10GB以上グラフィックボード搭載したWindowsPC推奨されてます。
Install and Run on NVidia GPUs
Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub...
github.com
のいちゃん
SD-WEB-UI』はゲーミングPC相性抜群💕

\10GB以上NVIDIA GeForce グラフィックボード/

のいちゃん
SD-WEB-UI』は RTX3060 以上お勧め💕
✅ワット数(W)が増える場合は、PC電源の電気容量も必ず確認しよう♪
PC電源の容量は、各機器の合計ワット数(W)の約2倍が効率的で良いとされてます。
電源容量計算(電源電卓)電源の選び方|ドスパラ通販【公式】
電源容量計算(電源電卓)電源の選び方 BTOパソコンの通販ならドスパラ【公式サイト】をご利用ください!BTOパソコンを中心としたカスタマイズパソコンの通販サイトです。パソコンショップも全国展開中!!
www.dospara.co.jp

『Stable diffusion web UI』利用方法の種類(無料&有料)

1Stable diffusion web UI 』を無料利用する為には、自身のパソコン(ローカル環境)に『SD-WEB-UI』をインストールします。そうする事で↓
自由な時間に制限なく何枚でも、無料で画像を生成できます💕
2 高性能PCが無くNVIDIA GeForce VRAM(ビデオメモリ)等のスペックが不足する場合は「クラウド環境にインストール」又は「アプリやWebサービス」を有料(又は無料トライアル)で(先方の環境・GPUを間借りして)利用する方法が一般的。
AIイラスト画像生成おすすめサイト(無料&有料)
Stable Diffusion Online Stability AI社が提供する画像生成AI
Midjourney 「Discord」で利用できる画像生成AI
SeaArt 毎日無料のトライアル有りの画像生成AI
Leonardo.Ai
毎日無料のクレジット有りの画像生成AI
Image Creater from Microsoft Designer Microsoft社が提供する画像生成AI
Adobe Firefly Adobe社が提供する画像生成AI
無料あり。料金:各種 プランを比較
DALL-E3 OpenAI社の画像生成AI
DALLE-3はBing AIやBing Image Creatorを使用すれば無料
ChatGPTは有料プランのみDALLE-3が利用可能
Canva ai AI画像生成&動画生成。無料プラン有り
(注記)総合デザイン系のサイト。
AI PICASSO テキストや下絵からAI画像生成できるサイト
無料プランの場合は広告有り
NovelAI AIが画像や小説を生成できるサイト。有料
(注記)ご紹介した順序はランキングではありません。
モデルを使用して生成した画像は、各種「利用規約」等に従いましょう。
特に、モデルに潜在的に含れるNSFWな画像が生成された際の取扱いには十分な注意が必要
です。
✅『Stable diffusion web UI 』をローカルインストールすれば無料。😃おすすめ(オレンジ色)
✅『Stable diffusion web UI 』をクラウド環境アプリ・Webサービス利用する場合は有料

『Stable diffusion web UI』YouTube動画:のいチャンネル

【2分で語る】画像生成AIツール『Stable diffusion web UI』インストール手順&使い方まとめ😃サクっと解説💕YouTube NEW

2分で語るYouTube動画インストール&使い方の流れをサクっと解説💕
NEW!YouTube(随時更新中)NEW👑チャンネル名:のいちゃんねる ➡ https://www.youtube.com/@nowi-chan

😺『百聞は一見に如かず💕』
のいちゃん
随時更新中💕😃 NEW

【3分で語る】Stable diffusion web UI 拡張機能 LLuL&XYZ プロットの実用的な使い方😊画像の生成精度を更に高める方法💕YouTube NEW

✅本動画はスプリクトXYZプロット」の基本的使い方拡張機能LLuL」(ローカル潜在アップスケーラー)のインストール方法解説
LLuL」&「XYZプロット」を組合せ生成画像の精度を高め理想的な結果を得る為の実用的使い方解説しています。

画像生成AI『Stable diffusion web UI』プロンプトの基本的な書き方【4W1H+A】&年齢と性別を制御する💕超おすすめ大文字「AND」の使い方😃YouTube NEW

✅本動画は基本的プロンプト書き方4W1H+A」及び😃年齢性別制御する為のプロンプト書き方。及び
超おすすめプロンプト💕大文字AND」の使い方😍も解説しています。

『Stable diffusion web UI』のインストール手順(導入方法)🔰

はじめに

本記事解説ではツールシステムドライブ(C:\)以外インストールします。
理由1システムドライブ容量圧迫させない為と、2インストールフォルダ階層深くしない為、及び3ウィルス監視ソフト等影響を(可能な限り)受けさせない為
モデルファイル容量1個当たり約2GB〜7GB近く有る上に、生成した画像同じフォルダに保存する事になるので、ハードディスク空き容量最低でも1〜2TB以上有ると安心できます
モデル」や「画像データ保存するならHDDお得💕
【内蔵型 vs 外付け 比較】メリット&デメリット
【内蔵型HDDのメリット】
高いパフォーマンス:内蔵型HDDは通常、データ転送速度が高く、応答時間が短いため、高速なデータアクセスが可能。
安全性:内蔵型HDDはケース内に収納されている為、外部からの物理的なダメージや盗難のリスクが低くなります。
拡張性:内蔵型HDDはコンピュータの拡張スロットに接続される為、複数のドライブを追加する事が出来ます。
【内蔵型HDDのデメリット】
取り付けと交換の難しさ:内蔵型HDDはハードウェアの取り付けや交換に専門的な知識が必要。
モビリティの制約:内蔵型HDDは固定されている為、持ち運びや他のデバイスへの接続が制限されます。
【外付けHDDのメリット】
ポータビリティ:外付け型HDDは小型で持ち運びが容易であり、複数のデバイスに接続できます。
簡単な接続と交換:外付け型HDDは通常、USBなどのインターフェースを介して接続される為、接続や交換が容易です。
【外付けHDDのデメリット】
性能の制約:一部の外付け型HDDは内蔵型に比べてデータ転送速度が低くなる事があります。
安全性のリスク:外付け型HDDは盗難や破損のリスクが内蔵型に比べて高くなる可能性があります。
のいちゃん
お勧めHDD💕

1『Python』のダウンロード&インストール手順(導入方法)

Pythonインタープリタ型の高水準汎用プログラミング言語です。
バージョンv3.11以降のPythonTorchをサポートしていないので、インストールするとエラーが出る可能性が有る為、過去バージョン3.10台の最終版『Python』バージョン3.10.9又は、AUTOMATIC1111氏が初版で発表した推奨バージョンの『Python』バージョン3.10.6インストールします。

1『Python』バージョン3.10.9又は『Python』バージョン3.10.6Files」の中から「Windows installer(64-bit)」を選びクリックしてダウンロード

[画像:Python-download-001]

2ダウンロードした「Windows installer(64-bit)」を実行(クリック)し、任意のドライブにインストールを開始します。

[画像:Python-install-001b-02]

「✅Add Python.exe to PATH」にチェックを入れ任意のドライブへ変更してインストールする為Costomize installation」をクリックします。

3NEXT」をクリックして次へ。

[画像:Python-install-002]

4Customize install location」(インストール場所をカスタマイズ)内のドライブ&フォルダパスを、指定したいドライブ&フォルダ名に変更して「Install」をクリック

[画像:Python-install-003]

例: L:\Python\Python310

5Setup was successful」(セットアップが成功)と表示されたら「Close」を押してインストール完了

[画像:Python-install-005]

2『Git』のダウンロード&インストール手順(導入方法)

以下サイトで「Download」をクリックして『Git for Windows最新版ダウンロードします。

Git for Windows
We bring the awesome Git VCS to Windows
gitforwindows.org
(注記)画像はクリックで拡大表示。再度クリックすると閉じます

1ダウンロードした実行ファイル(~.exe)クリックしてインストール開始します。

2GNU General Public License」を読み「NEXT」をクリック。

[画像:Git-install-001]

3インストール先を変更する場合「Browse」でフォルダ指定、又は、手動でドライブ&フォルダ名入力(変更)して「NEXT」を押します。

[画像:Git-install-001-02]

4以後、デフォルト設定のまま「NEXT」を押し進め、最後に「Install」をクリックしてインストール完了

[画像:Git-install-013]

3-A『Stable diffusion web UI』(AUTOMATIC1111)ダウンロード&インストール手順(導入方法)ZIPファイル版&モデルダウンロード等

くろまるインストール方法は2種類。本手順はZIPファイル版のインストール手順です。
くろまる「git clone」コマンドを使いインストールする場合は、次の項3-Bをご覧ください。

1以下サイト『GitHub – AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI 』で「Codeタブを開き「Download ZIP」をクリックしてダウンロード

GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI
Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub...
github.com
[画像:Stable Diffusion web UI-Download-001]

『Stable diffusion web UI』(AUTOMATIC1111)

2ダウンロードした圧縮ファイル「stable-diffusion-webui-master.zip」を解凍し、インストールしたいドライブ&フォルダ移動(又はコピー)します。

圧縮解凍ソフト(アーカイブ)をお持ちで無い方は『7ZIP』がお勧め。

3Stable diffusion web UI 』で画像を自動生成する為にはモデル必要なので「Hugging Face」や「CIVITAI.com」等から、お好みのモデル・ファイルダウンロードします。

Models - Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
モデルファイル拡張子は「.ckpt」又は「.safetensor」が主流で、一般的にどちらか片方を使用します。
違いは「.ckpt」には悪意のあるコードが含まれる可能性が有るが「.safetensor」には含まれない。と言われてます。
他にも、モデル学習させる為の追加データ「Textual Inversion」「Hypernetworks」「Lora」や「VAE」等のファイルが有ります。
加えて、2024現在はファイル容量の大きい「SDXL」用のモデルやLoraの数も増え、徐々に主流となりつつあります。が↓
「SDXL」モデルは SD-WEB UI v1.5.0以降。12GB以上のグラボ能力を必要とする事に注意して下さい。
✅「CIVITAI.com」を利用する為には「Google アカウント」等で登録ログイン必要です(➡ お持ちで無い方はこの機会にご登録をお勧めします。)
CIVITAI.com」は潜在的NSFWコンテンツが表示される可能性がある為、大人の事情であえてリンクは貼ってません。自力で辿り着いてね(。ᴗᴗᴗ。)ペコリ💕
✅ モデルのファイル名に付属する拡張子種類は「~.ckpt」「~.safetensors」「~vae.pt」等が有り、収納するべきフォルダが決まってます。↓
収納先フォルダは『How to use models · civitai/civitai Wiki · GitHubモデルの使用方法説明が分かりやすい。リンク参照。↓
How to use models
A repository of models, textual inversions, and more - civitai/civitai
github.com

4ダウンロードしたファイル「~.ckpt」又は「~.safetensors」を「Stable-diffusionフォルダ内移動(又はコピー)します。((注記)ファイル容量が大きいので移動推奨)

例: L:\stable-diffusion-webui-master\webui\models\Stable-diffusion
モデルは複数インストール可能。

くろまるVAEファイルが同時公開されている場合は「VAE」フォルダ内に「~vae.pt」等も配置。

例: L:\stable-diffusion-webui-master\webui\models\VAE

5「stable-diffusion-webui-master」フォルダ内のwebui.batファイルクリックして実行

セキュリティ警告メッセージが表示されたら「許可」して下さい。

6コマンドプロンプト起動し、必要ファイルインストール開始されます。

最後に「Running on local URL: http://127.0.0.1:7860」が表示されるまで待ちます。

[画像:Stable Diffusion web UI-start-up-001]

7正常インストールが完了すると「Running on local URL: http://127.0.0.1:7860」(ローカルで実行中)と表示されます。

新しい『SD web UI』バージョンの場合、ブラウザが自動で起動します。
エラーメッセージ表示されインストールが完了しない場合は、手順10に進みます。
重要!✅『Stable diffusion web UI 』は、コマンドプロンプト画面を閉じずに使用します
コマンドプロンプト画面閉じるとブラウザで接続時に回線(ネットワーク)が遮断(拒否)されエラーが出ると同時に『Stable diffusion web UI』画面が起動しない
モニター画面一つで「コマンドプロンプト画面」が邪魔な方は、最小化させてタスクバー収納しておくと良い。
モニターが2つ以上有る方は別の画面へ移動させ、「画像生成」する際に「サンプラー(sampler)」や「画像解読中(Decording image)」の詳細な進行状況を同時に監視できます

[画像:Stable Diffusion web UI-Decording-monitor-cmd-001]

エラーが発生した場合の通知メッセージも「コマンドプロンプト画面」に表示されるので、画面スペースに余裕の有る方は表示しておくと管理しやすい

8お使いのブラウザ(Google Chromeなど)でアドレスバーにURL: 「http://127.0.0.1:7860」を貼付けStable diffusion web UI 』を起動します。

http://127.0.0.1:7860
起動後ブラウザに「お気に入り登録」しておくと便利♪

9使い方の流れは、画面左上の所で使用したい「モデル名」を選択し、適用したいプロンプト、及びネガティブプロンプト(適用させたくない条件)を入力後【 生成クリックすれば画像が自動生成されます。(詳細は後ほど解説♪)

生成(Generate)」はショートカットキー「Ctrl+Enter」又は「Alt+Enter」でも機能します。とても便利♪
すぐ右側の「リサイクルアイコン Stable Diffusion web UI-reload icon-001 リロードボタンで『Stable diffusion web UI 起動中にモデルファイルを追加した場合も、クリックすれば最新情報に更新されます。

[画像:Stable Diffusion web UI-making-sample-001]

3-B『Stable diffusion web UI』(AUTOMATIC1111)インストール手順(導入方法)git clone コマンドを使用する

本手順は「Windows PowerShell」で「git clone」コマンドを使いStable diffusion web UI』をインストールする方法です。
Stable diffusion web UI FORGE』を(別フォルダで同時に併用)インストールする場合も同じ方法なので参考にしてください。

メリット&デメリット

メリット:Stable diffusion web UI』本体のバージョンアップ(アップデート)が「git pull」コマンドで可能になる。
デメリット:『Stable diffusion web UI』本体をバージョンアップ(アップデート)する事で、既存の拡張機能が使えなくなったり、不具合(バグ等)が(同時に)持ち込まれる可能性が有る
補足:使用し続けて問題が無い場合は自身で「安定版」と判断し、不要にアップデートしない方が問題を抱えずに済む事が有る。

インストール手順

1Windows PowerShell」を起動する。

2Stable diffusion web UI』本体をインストールするドライブ変更する為に、以下の文字を入力した後に「エンター」キーを押します。当サイトではCドライブ以外を推奨。

例:Lドライブに変更する場合(小文字入力OK)。
I(アイ)に見えますがl(エル)です。シー・ディー・スペース・エル・コロン

cd l:

Stable Diffusion web UI-howto_install_git_clone-002a

3以下の文字を入力してエンターキーを押す。(コピペ可能)

「Ctrl」+「C」キーでコピー。「Ctrl」+「V」キーで貼り付け。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

Stable Diffusion web UI-howto_install_git_clone-003

4以下の文字を入力してエンターキーを押す。(コピペ可能)

cd .\stable-diffusion-webui\

Stable Diffusion web UI-howto_install_git_clone-004

5以下の文字を入力してエンターキーを押す。(コピペ可能)

.\webui-user.bat
先頭に「.」ドット(点)が付いている事に注意して下さい。

Stable Diffusion web UI-howto_install_git_clone-005

インストール時間は(初版の際)、私の環境で約20分。
Stable diffusion web UI』本体のファイル容量の合計は約10GB。

6以下写真のように「Running on local URL: http://127.0.0.1:7860」と表示されたらインストール完了。

http://127.0.0.1:7860

Stable Diffusion web UI-howto_install_git_clone-006

7ご利用中のウェブブラウザ(Chrome等)にURL(アドレス)を貼り付けてStable diffusion web UI』を起動します。(最新版は自動起動)

次回からStable diffusion web UI』フォルダ内の「webui-user.bat」をクリックする事で、コマンドプロンプトを起動できます。
ショートカットをデスクトップに作っておくと良い♪

くろまるモデルダウンロード等は、全項「ZIPファイル版インストール」の続き3に戻りご覧ください

Stable diffusion web UI』の日本語化は、次の項目で解説します。
本記事の解説画像でインターフェースダーク(暗い)な理由はコレ。↓

『Stable diffusion web UI』インターフェースの色の変更方法・ダークを使用するメリット

まず『Stable diffusion web UI』はブラウザ上で使用するツールの為、インターフェースカラー(色)は、現在お使いのパソコン設定に依存します。

くろまる変更方法は、WindowsPCのデスクトップ上で「右クリック」➡「個人設定」➡「」。

➡「ライト」「ダーク」「カスタム」いずれかを選択するとが変わります。超簡単♪

[画像:Window10PC-テーマカラー変更-001]

お使いの液晶モニター画面が「VA方式/IPS方式」の場合、ダーク(暗い)にすると電力消費(電気代)が減る為「省エネ」になる上に目に優しい
加えて「明るい画面(光)を見続けない」事で「睡眠負債」等のリスク(寝不足)を減らし「脳が覚醒し夜眠れない」という生活習慣改善できる見込みが有る

Stable diffusion web UI』インストール時のエラー解決方法

はじめに

くろまるまず、エラー遭遇する一例として(古いリンクから以下サイトへ辿り着き)「webui.zipファイルインストールした場合に、エラーが発生する場合が有る。↓

Release v1.0.0-pre · AUTOMATIC1111/stable-diffusion-webui
The webui.zip is a binary distribution for people who can't install python and git. Everything is included - just double...
github.com
v1.0.0-pre」は「一部の機能が古い」です。
例:NETWORKSタブ内に「Checkpoints」が無い。
スクリプトが2次元「X/Y Plot」で3次元の「X/Y/Z」では無い。
webui.zipファイル内容python 」と「git」をインストール出来ない人向けのバイナリ・ディストリビューションです。
上記のディレクトリ構成は「sd.webuiフォルダの中に「run.bat」が有ります。

くろまるもし、これ↑をインストールした方は『Stable diffusion web UI 』で「Codeタブを開き「Download ZIP」をダウンロードし直す。又は「git clone」インストールをお勧めします。

GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI
Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub...
github.com
では本題。以下手順を進めればエラー問題解決できるはず。↓

インストール時のエラー解決方法

10Stable diffusion web UI』内の「webuiフォルダを開き「webui-user.bat」のファイル上で右クリックしてから「編集 」を選択します。

ご注意:「webui.bat」では無く「webui-user.bat」ファイルです。
set PYTHON= のスグ後ろに「Python」への実行ファイルパスを入力後、「ファイル」➡「上書き保存」して閉じます。
@echo off

set PYTHON=L:\Python\Python310\python.exe
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=

call webui.bat
✅ 今回、本記事の解説では「L:\Python\Python310\python.exe」を追記。
((注記)ご自身の環境に合わせ読み替えて下さい。)

11webui-user.bat」ファイルをクリックして実行すると、コマンドプロンプトが起動し『Stable diffusion web UI』のインストールが開始されます。

この時点で正常インストール完了した方は、手順7に戻りStable diffusion web UI』を「webui-user.bat」で起動してからブラウザで使用開始できます。

12ランタイム・エラー「RuntimeError: Cannot add middleware after an application has started」が表示された場合、Windows+Rキーを押し「cmd」と入力して、コマンドプロンプト起動します。

和訳:ランタイムエラー: アプリケーションの起動後にミドルウェアを追加できません。

13恐らく、最初はCドライブが表示されるので、ドライブ変更する為に「L:」(小文字でもOK)と入力し「ENTER」キーを押します。((注記)ドライブ名は自身の環境に合わせ読み替えて下さい。)

stable diffusion web ui error Resolution_DOSコマンドプロンプト-001

14次に、チェンジ・ディレクトリ(ディレクトリ変更)する為に「CD L:\stable-diffusion-webui-master」と入力後「ENTER」キーを押し『Stable diffusion web UI』フォルダを指定。

CD L:\stable-diffusion-webui-master
『Stable diffusion web UI』ディレクトリ構成が「sd.webui」等の方は、ご自身の環境に合わせ読み替えて下さい。

15.\venv\Scripts\activate」をコピー&ペースト(貼付け)して「ENTER」キーを押します。

Ctrl」+「C」でコピー、「Ctrl」+「V」で貼付けすると楽です。おすすめ(オレンジ色)
.\venv\Scripts\activate

stable diffusion web ui error Resolution_DOSコマンドプロンプト-001

16以下画像のように「(venv)L:\stable-diffusion-webui-master」が表示される。

stable diffusion web ui error Resolution_DOSコマンドプロンプト-002

17pip install fastapi==0.90.1」をコピー&ペースト(貼付け)して「ENTER」キーを押すと、pipインストール開始されます。

pip install fastapi==0.90.1

stable diffusion web ui error Resolution_DOSコマンドプロンプト-003

18新しいpipバージョン利用可能(A new release of pip available)と表示されたら「python.exe -m pip install –upgrade pip」をコピペして「ENTER」キーを押しアップグレードします。

python.exe -m pip install –upgrade pip
コマンドプロンプト上の緑色の文字の部分を(実際の画面上で)、マウスでドラッグして「CTRL」+「C」でコピペでも使えます。↓↓

stable diffusion web ui error Resolution_DOSコマンドプロンプト-004

stable diffusion web ui error Resolution_DOSコマンドプロンプト-005

19Successfully installed pip~」(pipが正常にインストールされました)と表示されたら、コマンドプロンプト画面を閉じて(pipアップグレード)作業完了

stable diffusion web ui error Resolution_DOSコマンドプロンプト-006

20この後「webui-user.bat」ファイルをクリックすると、コマンドプロンプト起動して『Stable diffusion web UI』のインストール開始され、正常インストールが完了すると「Running on local URL: http://127.0.0.1:7860」(ローカルで実行中)と表示されます。

Stable Diffusion web UI-start-up-001

重要!✅『Stable diffusion web UI 』は、コマンドプロンプト画面を閉じずに使用します
コマンドプロンプト画面閉じるとブラウザで接続時に回線(ネットワーク)が遮断(拒否)されエラーが出ると同時に『Stable diffusion web UI』画面が起動しない。

21お使いのブラウザ(Google Chromeなど)でアドレスバーにURL: 「http://127.0.0.1:7860」を貼付けStable diffusion web UI 』を起動(注記)最新版は自動起動

http://127.0.0.1:7860
起動後ブラウザで「お気に入り登録」しておくと便利。
のいちゃん
作業お疲れ様です💕

エラー解決の為に参考にさせて頂いたサイト】↓

ローカル版導入 - としあきdiffusion Wiki*
としあきdiffusion Wiki*
wikiwiki.jp

Stable diffusion web UI』の日本語化 & ブラウザ翻訳機能の使い方

1Extensions」(拡張機能)タブを開き ➡「Available」(利用可能)をクリックします。

[画像:Stable Diffusion web UI_日本語化-001]

2画面の下の方。リストの中から「ja_JP Localization」を選び「Install」をクリックします。

この時、サイト内キーワード検索Ctrl」+「F」キーを押して「ja」又はJP」と入力すると、ブラウザ内で使用されている文字へ、一発で画面がスクロールする。おすすめ(オレンジ色)

[画像:Stable Diffusion web UI_日本語化-002] [画像:Stable Diffusion web UI_日本語化-002-02]

3画面上の「Setting」(設定)タブを開き ➡ 左側の「User interface」をクリックします。

[画像:Stable Diffusion web UI_日本語化-003]

[画像:Stable Diffusion web UI_日本語化-004]

4画面の下の方「Localization」で「ja_JP」を選択します。

[画像:Stable Diffusion web UI_日本語化-005]

5最後に「Apply settings」を押し ➡「Reload UI」をクリックすると『Stable diffusion web UI 画面再起動してUI日本語化完了します。

[画像:Stable Diffusion web UI_日本語化-006]

6更に!「ja_JP Localization」をインストールしても日本語化されない箇所は「Google Chrome」等のブラウザ翻訳機能合わせて同時使用する事で、ほぼ全ての内容を日本語化できます。

くろまる使い方は「Google Chrome」であれば画面右上アドレスバー内の小さい翻訳アイコン

マウスオーバーした時に「このページを翻訳」と表示されるボタンクリックすれば日本語化されます。

オプションで追加した拡張機能[extensions]等も、この方法で日本語化できます。

Stable Diffusion web UI-extentions_拡張機能-web-brouser-settings-en-jp-translation-005

但し、ブラウザ翻訳を同時に利用し日本語化するこの方法は、既に日本語化されている文章の「誤訳」や「略称化一部の英単語が「誤訳される事が有るのでご注意下さい。

SD VAE・Hypernetwork・Clip skipメニューの追加方法

1-A 最新版の場合は『Stable diffusion web UI 』の「設定」タブを開き、左側メニューの中から「ユーザーインターフェイス(User Interface)」をクリックし、[info]クイック設定の所で追加したいメニューの名前を(アルファベット半角で)入力すると候補がリストアップされるので、順に選択して下さい。

[画像:stable diffusion_web_ui_user interface_add_menu-settings_001a]

お勧めは「sd_vae」「sd_hypernetwork」「CLIP_stop_at_last_layers」
「sd_hypernetwork」は需要が少ないので、使わないなら無しでも良い。
最後に必ず「設定を適用」を押して「UIの再読み込み」を実行して下さい。

1-B 旧バージョンの場合は『Stable diffusion web UI 』の「設定」タブ ➡「UI設定」 に移動し「クイック設定」の所で(以下の文章)文字をコピペして貼り付けます。

sd_model_checkpoint, sd_vae, sd_hypernetwork, CLIP_stop_at_last_layers, sd_hypernetwork_strength

[画像:Stable Diffusion web UI-VAE-settings-001]

「sd_vae」だけでも良いのですが、この機会に一気に登録しちゃいましょう♪
和訳:SDモデル・チェックポイント、SD・VAE、SD・ハイパーネットワーク、最後のレイヤーでクリップ(CLIP)ストップ、SD・ハイパーネットワークの強度。

2上部の「設定を適用」を押した後に、右側の「UIの再読み込み」を押すと『Stable diffusion web UI 』がリロードされて再起動します。

3『Stable diffusion web UI 』の上部に、新たに「SD VAE」等が追加されます。

[画像:Stable Diffusion web UI-VAE-settings-002]

必要に応じて「VAEファイル選択して切り替えたり「Automatic」や「なし」に変更出来ます。

4Add Hypernetwork to prompt」は(あらかじめインストールした)ハイパーネットワークのプリセットを選択し、プロンプトに追加できます。

Stable Diffusion web UI-add hypernetwork prompt-001

Hypernetworkファイルの収納先: 〜\models\hypernetworks 内

5クリップスキップ「Clip skip」は、CLIPモデルの早期停止パラメーター

[画像:Stable Diffusion web UI-VAE-settings-003]

1」は通常通り最後のレイヤーで停止。
2」は最後から2番目のレイヤーで停止、です。

VAEファイルダウンロード

vae-ft-mse-840000-ema-pruned.ckpt

くろまるHugging Face』にある「vae-ft-mse-840000-ema-pruned.ckpt」です。

私はリアル系3Dモデル等で利用してます。逆にアニメ向きでは無いかも。
ファイル中身は「人間のSFW画像のみを含む未発表のサブセット」を元に「LAION-Aesthetics 」と「LAION-Humans」を1:1の比率で合わせたものです。
目的は当初『Stable Diffusion』トレーニングセットの微調整でしたが、人間の画像で顔の再構成を改善するデータセット強化の為にも使用(利用)されます。
以下リンク先からダウンロード出来ます。↓
vae-ft-mse-840000-ema-pruned.ckpt · stabilityai/sd-vae-ft-mse-original at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co

pastel-waifu-diffusion.vae.pt(Pastel Mix用)

パステル画調美少女を描けるモデルPastel Mix』で使われるVAEファイル
単独で使用する事は無く、モデルファイル(pastelmix.safetensors 又は 〜.ckpt)等と一緒セットで使います
パソコンのHD容量が心配な方は、ファイル容量少ないfp32」や「fp16」はライト版(軽量版)を使うと良い
リンク先の「Model cardタブを開くと「サンプル画像」&「サンプルプロンプト」が有るので見てみると分かりやすい
404 – Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
これは『CIVITAI.com』にも『Pastel-Mix [Stylized Anime Model] – Fantasy.ai』という名前で同じものが公開されてます。(各バージョン有り)

Stable diffusion web UI』基本的な使い方&操作パネル(ユーザーインターフェース)概要説明

Stable diffusion web UI』の基本的な使い方&操作パネル(UI)の概要を解説します。

Stable diffusion web UI』操作パネル(ユーザーインターフェース)1/4

くろまる画面一番左上「Stable Duffusion checkpoint」で使用するモデル切替え出来ます。

Stable diffusion web UI 操作パネル(インターフェース)解説-001A

ファイル名は主に、モデル名.拡張子 [ハッシュ値] 構成される。
中には [ハッシュ値](Model hash)の記載が無いモデルも有ります。

Stable diffusion web UI 操作パネル(インターフェース)解説-001

1txt2img」は「Text to image」の略で、文字テキストから画像を生成する時に使用します。

2img2img」は「Image to image」の略で、画像から画像を生成する時に使用します。

3その他」では「単一画像をアップロードして生成」や「バッチ処理」「フォルダからバッチ処理」等の操作が出来ます。

4PNG内の情報を表示」では「画像を直接ドロップ」又はクリックするとエクスプローラー起動し、お使いのPC内の任意の画像を指定してアップロード出来る。

Stable diffusion web UI 操作パネル(インターフェース)解説-001

5Checkpointの統合」では、複数のモデルファイルを統合してマージ(merge)出来る。

「マージ」とは複数のファイルやプログラム等を一つにまとめる事を意味します。

6学習」では「Enbedding作成」「Hypernetwork作成」「画像の前処理」「学習」の操作が出来る。

7設定」では「画像ファイルの保存形式(拡張子)」や「生成画像の保存先」等々、数多くの設定が出来ます。

画像ファイルの保存形式(拡張子)」のデフォルト設定が「png」なので、ファイル容量を抑えたい場合は「jpg」にすると容量が小さくなります。おすすめ(緑色)
加えて「グリッド画像を常に保存する」の✅チェックを外す、又は「グリッド画像の保存形式」をデフォルト「png」から ➡「jpg」にするとHD容量を節約できる。おすすめ(オレンジ色)
グリッド画像」は、生成されたオリジナル「画像」のサイズ(大きさ)と同じモノを、複数枚接合して(長方形に全て収まるように)保存するので、画像の大きさ&ファイル容量が肥大する傾向にある。(保存先は「txt2img-grids」フォルダ内)
pngメリット何度保存しても画像が劣化しにくい容量が大きいのがデメリット
jpgメリット圧縮してファイル容量を小さく出来る劣化するのがデメリット

8拡張機能」では「各種スプリクト」「主要各国のUI翻訳ファイル」等を、URLからインストール出来る。

Stable diffusion web UI 操作パネル(インターフェース)解説-001

9任意に指定したモデルに適用したいプロンプト(適用したい条件、採用したい内容)テキスト入力します。(続く↓)

プロンプト&ネガティブプロンプトの基本的な書き方

プロンプト(prompt)」には動作を促して適用(採用)する為の条件(見た目/状況)肯定的なプロンプト」(ポジティブ・プロンプト)を記載(記入)する。
ネガティブ・プロンプト(negative prompt)」には除外(排除)する為の条件(見た目/状況)否定的なプロンプト」を記載(記入)する。
生成画像の精度を高め理想的な結果を得る為の「4W1H+A」のい式

画像生成AIStable diffusion web UIプロンプト基本的書き方4W1H+A】&年齢性別制御する💕超おすすめ大文字AND」の使い方😃YouTube NEW

くろまる皆様もご存知「5W1H」は、1When(いつ) 2Where(どこで) 3Who(誰が) 4What(何を) 5Why(なぜ)6How(どのように)。ですが!

➡ これを『Stable diffusion web UI 』が必要情報置き換えると↓
1When(いつ) 2Where(どこで) 3Who(誰が) 4What(何を) (削除) 5Why(なぜ) (削除ここまで)5How(どのように)+6ACTION(行動する)、で「4W1H+A」になる。
4W1H+A」(のい式)を具体的に「プロンプト」に使用した例↓。
1日没の夕暮れに(いつ) 2砂浜で(どこで) 3一人の女の子が(誰が) 4水着を着て(何を) (削除) 5Why(なぜ) (削除ここまで)5笑って(どのように)+6ベンチに座っている(行動するか)
prompt: (sunset evening, sandy beach, 1girl, wear swimsuit, sit on the bench, smile:1.3)
4W1H+A」(のい式)を具体的に「プロンプト」に使用した
4W1H+A」(のい式)は私が勝手に作った方式ですが、生成画像の精度を高め理想的な結果を得る方法(手段/概念)として(少しでも)役立て頂けたら幸いです💕
複数条件

複数の条件を書く時は半角のカンマ(,)で区切り、半角スペースを加えてから次の条件(プロンプト)を記載すると読みやすくなる。(補足:スペースを加えなくても機能はします。)

英文の場合各単語の間にスペースが入る為、カンマ「,」の後に空白を入れないと、文字が繋がっているように見える事が有る。いわゆるヒューマンエラー対策です。
キーワード強調の基本

キーワード強調したい場合半角の丸カッコ( )で囲うと1.1倍弱める場合は半角の角カッコ[ ]で囲うと0.91倍(1÷1.1=0.91)になります。

二つカッコ (( )) の場合は更に1.1を掛けて ➡ ×ばつ1.1=1.21倍となる。

更にキーワード(プロンプト)を強調して重み(Weight)を付ける場合、強調したい単語にコロン(:)×ばつ0.01」で記載します。(1=100%、0.1=10%)

重みを上げると(同類のキーワードが有る場合)逆に、他の部分のウェイトが下がる結果になるので注意。
キーワードの重み(Weight)を具体的な割合(比率)で増加/減少。例1

くろまるボディー・パーツ(身体の部位)の重みを、具体的な割合(比率)で指定する例1

例1:(現実的:1.2)、(青い目:0.5)、(金髪:0.7)、(ツインテール:0.5) 以下参照↓
(realistic:1.2), (blue eyes:0.5), (blonde hair:0.7), (twintails:0.5)
重み(Weight)を具体的な値(割合/比率)で指定する場合半角の丸カッコ( )を使用し、半角の角カッコ[ ]では機能しません
キーワードの重み(Weight)を具体的な割合(比率)で減少。例2

くろまる衣装・衣服・鎧などのパーツの重みを減らし弱め、具体的な割合(比率)で指定する例2

例2:[手袋]、鎧、(フリルスカート:0.3) 以下参照↓
[gloves], armor, (frilled skirt:0.3)
帽子や靴、メガネ等、ランダムな要素を加えたい時に便利♪
この時、重みを付けたいキーワードの上をマウスドラッグアクティブにした状態で「Ctrl」キーを押しながら上下矢印キー「↑」「↓」を押すと、自動で丸カッコ( )と値付加され、0.1刻み変化します。おすすめ♪おすすめ(オレンジ色)

✅ 基本的に、形容詞を含めた「英単語や、複数の単語を組み合わせた「熟語が利用可能。

『civitai.com』のモデル「clarity_19」で以下プロンプトを使い生成した例1
stable diffusion web ui-prompt-test-sample-woman with short black hair-001

【形容詞を含めた「熟語」を使用した

Prompt: woman with short black hair

和訳:短い黒い髪の女性

Stable diffusion web UI 操作パネル(インターフェース)解説-001

10任意に指定したモデルに適用させたくないネガティブプロンプト(適用させたくない条件、除外したい内容)テキスト入力します。(:モノクロ(白黒写真/白黒画像)、タトゥー/刺青)

Negative prompt: monochrome, tatoo,
文字リテラル「\」バックスラッシュの使い方(文字通りに理解させる)

くろまる文字リテラル\」バックスラッシュは、人名」や「ゲーム/アニメタイトル」「造語を、「文字通り」に理解して欲しい時に使います

例:ファイナルファンタジー、ライトニング。
➡ この場合、和訳すると「最後の幻想」「
これを「」では無く、FFの「ライトニング」として理解させます。

くろまる文字リテラル\」を使う際の、定形文はこんな感じ。➡ \(しろまるしろまるしろまるしろまる\)

文字リテラル「\有り無しプロンプトで(2種類)画像生成したがコチラ。↓
1 game, (final fantasy lightning), face closeup (無し)
2 game, \(final fantasy lightning\), face closeup (有り)
使用モデル『civitai.com』の「Clarity」。「Lora」未使用。
(この場合、顔とかはモデルに依存します。)
1文字リテラル無し 2文字リテラル有り
(注記)シード値を含め他のパラメータは同じ状態で画像生成してます。
このように、1の文字リテラル無しは「」だと理解し、2文字リテラル有りはあの「ライトニング」として(ちゃんと)理解し「雷」では無いと判断した訳です。
しかし、私も複数回いろいろ試しましたが、精度があまり高く無い。
恐らく「ライトニング」モデルや「Lora」が私の環境に入って無いのが原因かも。
➡ そこで更に、ネガティブプロンプトに「lightning effect」(雷エフェクト)を追加した所「雷」はほぼ出なくなりました。あとは精度の問題。
生成精度は、他のパラメータ「サンプリングアルゴリズム」「CFGスケール」「シード値」等も影響するので、具合いを見ながら微調整してみると良いです。
最後に余談ですが、ぶっちゃけ「雷」エフェクト有る方がカッコ良い💕(笑)
➡ という事で、逆転の発想で「雷(lightning)」をプロンプト側に追加して3D高画質化させた画像がコレ。
「雷(lightning)」をプロンプト側に追加して3D高画質化させた画像(おまけ)
プロンプト・マトリックス(prompt matrix)の書き方&スプリクトの使い方

くろまる縦棒「|」(バーティカルバー)を使用して、複数のプロンプト(キーワード/文章)を分離し、それらを「組み合わせて画像生成」する事が出来ます。

最初の「キーワード1」部分常に保持(維持/固定)されます
サンプル:➡ キーワード1|キーワード2|キーワード3,
1縦棒「|」(バーティカルバー)をキーボード入力する方法SHIFT」+「\(と書いてある)キーを押せば入力できます。((注記)プロンプトは半角を使用。)
2バックスラッシュ\ 」は「半角/全角」キーがオフの状態で「\を押せばOK。

くろまるこの場合、キーワード組み合わせ4種類(4通り)。

キーワード1
キーワード1, キーワード2
キーワード1, キーワード3
キーワード1, キーワード2, キーワード3
具体例として、キーワード(子猫|純白|眠っている)を3つ入れてみます。
Prompt: kitten|pure white|sleeping,
✅ この時、まずスプリクトの所で「Prompt matrix」を選択
その後に「生成ボタンを押します。すると↓
kitten|pure white|sleeping 子猫|純白|眠っている
Stable Diffusion web UI-Prompt-matrix_sleeping-pure-white-cat-002

1つ目の「子猫」は常時固定(確定)。

1子猫(Kitten)
2純白の子猫(pure white kitten)
3眠っている子猫(sleeping kitten)
4眠っている純白の子猫
(sleeping pure white kitten)

4種類の結果を得る為には「バッチ回数」又は「1回当たりの枚数」を「4」にします。
このように、4つの画像がこの順番で生成され、全て同じシード値で、それぞれに対応するプロンプト画像生成されるのが「Prompt matrix」です。

Stable diffusion web UI』操作パネル(ユーザーインターフェース)2/4

Stable diffusion web UI 操作パネル(インターフェース)解説-002

1生成」ボタンをクリックすると、指定したフォルダに画像が出力されます。

2矢印ボタンを押すと、ユーザー・インターフェイス(UI)内のプロンプト空欄の場合最後に生成されたパラメーター(プロンプト&ネガティブプロンプト)等を読み取ります

メリットは、前回の続きからスグに作業を再開できる。(UI再起動時などにも便利♪)
この時、最後に使用した「シード値」が呼び出され固定されているので、乱数を使用する場合は作業前再確認し、「シード値」を(-1)に変更すると良い。

3ゴミ箱アイコンを押すと、現在ユーザー・インターフェイス内に書かれているパラメーター(プロンプト&ネガティブプロンプト)を削除(Delete)します。

補足:「Save style」で保存された内容は削除されません。

Stable diffusion web UI 操作パネル(インターフェース)解説-002

「LORA」「Textual Inversion」「Hypernetworks」の使い方

4「🎴」花札の絵柄、坊主(ぼうず)アイコンShow extra networks」をクリックすると、追加のネットワークを表示します。

Textual Inversion」「Hypernetworks」「Checkpoints」「Lora」等。

Stable-Diffusion-web-UI-Lora-tab-reflesh-and-close-001C

Refresh」ボタンで再読み込み。「Close」ボタンで先に開いた画面が閉じます
加えて「Lora」等の名前が既に分かっている場合は「Search」に、使用されているキーワード(例:tifa)入力する事で「絞り込み検索(サーチ)」が出来る。便利💕

[画像:Stable Diffusion web UI-lora-keyword-search-sample-ff-tifa-001-add-fix-001]

くろまるそして、最初「Textual Inversion」「Checkpoints」「Hypernetworks」「Lora」には「NO PREVIEW」と表示され、カードには名前しか表示されていないが、以下の方法で登録できる。↓

プレビュー画面(なし) プレビュー画面(置換え後)

Lora・ckp等のプレビュー画面(カード/サムネイル)を登録する方法

くろまるまず。一番楽な方法は拡張機能Civitai Helper」を使用してモデルをダウンロードする事で「モデルファイル」に加え「サムネイル」「civitai.info」も同時に登録されます。簡単♪

GitHub - butaixianran/Stable-Diffusion-Webui-Civitai-Helper: Stable Diffusion Webui Extension for Civitai, to manage your model much more easily.
Stable Diffusion Webui Extension for Civitai, to manage your model much more easily. - butaixianran/Stable-Diffusion-Web...
github.com
稀大容量のモデルをダウンロードすると稀に、回線が遮断される事が有るので注意
手動でモデルをダウンロードしてフォルダに入れた時は、モデルタイプを✅選択し「Civitai Helper」の「Scan Models for Civitai」で「Scan」を押せば、サムネイル画像などを自動で取得してくれます。↓

[画像:stable diffusion-civitai helper-scan-models-001a]

くろまる2023年中期頃の古いSD-WEB UIをお使いの場合は、以下画像↓1の所「ギャラリー」に生成済みの画像が表示されている状態で「replace preview」をクリックすると、その画像が置き換えられ表示されます。

1ギャラリー replace preview
replace previewボタンマウスオーバーした時のみ表示されます。
この時、複数画像表示されている場合は使用したい画像を1枚クリックし、現在表示されている画像が(カード/サムネイル)として置き換えられます。
「Civitai Helper」でモデルを取得した場合は「メタデータ(metadata)」が確認可能。
「編集(Edit)」は、手動ダウンロードしたサムネイルの場合も出来ます。

くろまる基本的に、サムネ登録したい画像を「Lora」や「Checkpoints」ファイルと同じ名前に書き換え、同じ場所(フォルダ内)に収納しリロードすると反映されます。↓

Civitai Helper」を使用してダウンロードした「サムネイル」のファイル名には、「.preview」という文字が後ろに付加されてます
もし「モデル名.preview.png」の文字が「有り&無し」のサムネイル画像が、2種類フォルダ内に混在している場合は、不具合の可能性を避ける為に、どちらかに統一する事をお勧めします。
私は「モデル名.preview.png」で統一し、重複するファイルは削除しました。
拡張子も「.png」のみに統一してます。
➡ よって、もし手動でモデルをダウンロードした場合は、同じ名前にした後に.preview」の文字を、ファイル名後ろ加える必要があります
例: V08_V08.preview.png
➡ 手動でモデル・ダウンロードする場合は、公開中の「サンプル画像」を一つ一緒に(お借りして)保存しておくとプレビュー登録が楽になります💕
表示されない場合は、画像の拡張子を「jpg」から「png」に変更してみて下さい。

LoRa」の基本的な使い方

くろまるTextual Inversion」「Hypernetworks」「Lora」は、既に任意に指定されているモデル追加学習させて、補助的な要素を加える事が出来るオプション機能(追加学習データ)です。

くろまるLoRa」の基本的な使い方は「🎴」花札の絵柄、坊主(ぼうず)アイコンShow extra networks」をクリックした後に「Loraタブを選択し、該当する「Lora」をクリックすると、既に書かれているプロンプト最後(後ろ)へ自動で文字が追記されます。
バージョン1.6.0以降の「SD-WEB UI」には「🎴」ボタンが無く、既にデフォルトでタブが表示されてます。(LORA等)
(: 1girl, blonde hair, <lora:fashionGirl_v45:1>)

Stable diffusion web UI 操作パネル(インターフェース)解説-002

「Lora」プロンプトの意味(内容)は ➡ <lora:ファイル名:乗数>
(注記)この文章テキストは「Lora」を有効にする為に使用されます。
乗数を指定する事で合成される割合(%)=重みを指定できます。
(例:<lora:fashionGirl_v45:0.5>)
✅「Lora」の場合、以下のようなプロンプト編集でトリックする事は出来ません。
[<lora:ファイル名1:1.0> | <lora:ファイル名2:1.0>]複数の異なるプロンプトを含むバッチは、最初のプロンプトの「Lora」のみを使用します。
✅「Lora」はネガティブプロンプトに追加する事は出来ません。
✅「Lora」は複数同時に使用できます。➡その場合、重みの合計が1.0以下になるように調整すると「いい感じ♪」になります。
加えて「Lora」を記載する場所(書く位置)はプロンプトの前後どこでも良いが、別の「Lora」に変更して書き換える場合を想定すると、最後に記載する方が使い勝手が良い。
Textual Inversion」「Hypernetworks」の使い方もほぼ同様。
➡ 上記の内容を踏まえ、先ほどと全く同じモデルで「シード値も同じ状態で、追加要素である「LoRa」をプロンプト追加して画像生成するとこうなります。↓

「Lora:fashionGirl」を使用した例2

LoRa:fashionGirl_v45(ロラ:ファッションガール バージョン45)を使用した例2
stable diffusion web ui-prompt-test-sample-lorafashionGirl_v45-woman with short black hair-002

モデル:「clarity_19」

Prompt: <lora:fashionGirl_v45:1> woman with short black hair

和訳:<lora:fashionGirl_v45:1> 短い黒い髪の女性

だいやまーくTextual Inversion」「Hypernetworks」「Lora」は『Hugging Face』や『civitai.com』等から無料でダウンロード出来ます。
だいやまーくファイルインストール先は『How to use models · civitai/civitai Wiki · GitHub』の説明が非常に分かりやすい。

くろまる更に!上記と同じプロンプトでモデル」側を変更すると、追加要素LoRa」を適用した状態で、また少し違った結果(画像)を得る事が出来ます。

同じ「Lora:fashionGirl」を使用しモデル側を変更した例3

モデル:「clarity_19」➡ モデル「3DKX_V2」に変更
LoRa:fashionGirl_v45(ロラ:ファッションガール バージョン45)固定
プロンプトが同じでモデル側を変更した例3
stable diffusion web ui-prompt-test-sample-3DKX_V2-lorafashionGirl_v45-woman with short black hair-003

Prompt: <lora:fashionGirl_v45:1> woman with short black hair

和訳:<lora:fashionGirl_v45:1> 短い黒い髪の女性

くろまる以上、3枚の画像を全て並べ比較すると、違いはこんな感じ♪かなり印象が違いますね💕↓

例1 例2 例3
ぜひ一度ご自身でもお試し下さい💕

5テキスト文書アイコンをクリックすると、現在選択中の7「スタイル(「Save style」で保存されたプロンプト)の内容を呼び出し、ユーザー・インターフェイス内に表記します

6フロッピーディスクアイコンをクリックすると、現在のユーザー・インターフェイス内に書かれているプロンプト内容を、スタイル(Style)として個別に名前を付けて保存できます。

Stable diffusion web UI 操作パネル(インターフェース)解説-002

✅ 筆者は、既に生成済みの個別画像からプロンプトを呼び出す為に、拡張機能(Extensions)Image Browserイメージブラウザ(機能の一部)を使用しているので、コチラの方法をおすすめします💕↓
『Stable diffusion web UI』お勧め拡張機能『Image Browser』インストール方法と基本的な使い方
画像生成AIツール『Stable diffusion web UI』のおすすめ拡張機能(Extensions)『Image Browser(画像ブラウザ)』のインストール方法と基本的な使い方を写真付きで解説します。 加えて『イメージブラウザ...
kozi001.com
2023年03月05日

7スタイル」をクリックすると「Save style」で保存されたスタイルを読み込みます。

➡ 続けて「テキスト文書アイコン5をクリックするとプロンプトを呼び出しUI内に表記します。

8リサイクルアイコン」Stable Diffusion web UI-reload icon-001 のリロードボタンをクリックすると、スタイル再読み込みします。

Stable diffusion web UI』操作パネル(ユーザーインターフェース)3/4A

Stable diffusion web UI 操作パネル(インターフェース)解説-003

1サンプリングアルゴリズム」では、プロンプトを読み取る際に使用する「計算方式」が違うプリセットユーザー自由に選べます。

その為、同じプロンプトでも「サンプリングアルゴリズム」を変更する事で、自動生成で出力される画像(アルゴリズムで計算した答え)の結果が変わります。(つまり、式が違えば答えが変わる)

2サンプリング回数」はアルゴリズムの読み取り回数です。
(レンジ幅:最小1〜最大150)

値を大きくするほど精細で正確に描画するが、画像生成の処理時間が増価します。
値の変更は、直接入力、マウスオーバーした時に表示される「さんかく」「▼」、又は直接マウスで「スライドバー」を移動(ドラッグ)させる。他にも↓
スライドバークリックした後「」「」左右キーを押す事でも反応します。

3」:生成する画像の横幅をピクセル(px)単位で指定します。
(レンジ幅:最小64〜最大2048)

4高さ」:生成する画像の高さをピクセル(px)単位で指定します。
(レンジ幅:最小64〜最大2048)

Stable diffusion web UI 操作パネル(インターフェース)解説-003

5CFGスケール」は、生成する画像がどの程度プロンプトに沿った画像になるか判断する為の値です。(レンジ幅:最小1〜最大30)

低い値(小さい数字)の方がクリエイティブ(創造的)な画像結果を生み出します。

6バッチの回数」は、バッチ処理(画像生成)を何回行うか。
(レンジ幅:最小1〜最大100)

71回当たりの枚数」は、1回のバッチ処理で何枚の画像を生成するか。
(レンジ幅:最小1〜最大8)

例:バッチ回数」=5、「1回当たりの枚数」=5 の場合
×ばつ5=25枚画像生成される。(但し、処理時間も比例して増加します)

8シード値」は乱数発生器出力を決定する。(Seed=種子、種、実という意味)

同じパラメータとシードで画像を作成すれば、同じ結果が得られます。その逆もしかり。

なので、植える種(Seed)を変えると育ち方(結果)が違う。という事でしょうか♪

Stable diffusion web UI 操作パネル(インターフェース)解説-003

9サイコロ」ボタンを押しシード値」をマイナス1(-1)に設定すると、毎回新しい乱数が使用され、毎回違った結果が得られます。なので↓

✅ 俗に言う「ガチャ」的な要素は「サンプリングアルゴリズム」「CFGスケール」「シード値」の調整次第。

10三角の「リユース(Reuse)再利用アイコンをクリックすると、最後(直前)に利用したシード値を再利用して固定します。

シード値が(-1)で、ランダム化されている場合に最も役立ちます。
シード値」を同じ値で固定すると、基本的に同じパターンの画像(図像/絵柄)が生成されます。(その他プロンプト等の条件を変更しない場合。)

11その他」をクリックすると隠されているメニューが開き「Valiation seed」「Valiation strength」「Resize seed from width」「Resize seed from height」等を設定できる。

和訳:「種のバリエーション」「バリエーションの強さ(強度)」「幅から種をリサイズ」「高さから種をリサイズ」。

12顔の修復」にチェックを入れると、顔を修復します。まんま♪

Stable diffusion web UI 操作パネル(インターフェース)解説-003

13テクスチャ生成モード」にチェックを入れると、タイルとして扱える画像生成します。

つまり、同じ画像を縦横に並べタイル張りすると、繋ぎ目が完全に分からない絵(画像)になる。

人物を描く場合の機能としては向いてません。

14高解像度補助」にチェックを入れると、隠されていたメニューが表示され「アップスケーラー」「高解像度の回数」「ノイズ除去強度」「アップスケール」「幅変更」「高さ変更」が出来る。

15「スプリクト」は3種類。特殊なプロンプトの記載方法で、便利機能が使えるようになります。

[画像:Stable Diffusion web UI-Prompt-matrix_preset-001A]

1Prompt matrix
2ファイルまたはテキストボックスからプロンプトを表示
(Prompts from file or textbox)
3X/Y/Z Plot
スプリクト」は理解できるまで、特別な事をせずそっとしておきましょう♪

Stable diffusion web UI』操作パネル(ユーザーインターフェース)3/4B

手順14で「高解像度補助」に ✅チェックを入れた時に表示される、メニューの概要解説です。

Stable diffusion web UI 操作パネル(インターフェース)解説-003-02

1アップスケーラー」で以下の、各種プリセットが選べます。

アップスケーラー・プリセットリスト(全16種)(注記)なしを含む
Stable diffusion web UI 操作パネル(インターフェース)解説-アップスケーラー005

Latent
Latent(アンチエイリアス補完)
Latent(ハイキュービック補完)
Latent(ハイキュービック アンチエイリアス補完)
Latent(ニアレスト補完)
Latent(ニアレスト-エグザスト補完)
なし

Lanczos、Nearest、ESRGAN_4x、
R-ESRGAN 4x+、R-ESRGAN 4x+ Anime6B

LDSR、ScuNET GAN
ScuNET PSNR、SwinIR 4x

Stable diffusion web UI 操作パネル(インターフェース)解説-003-02

2高解像度化の回数」は、拡大縮小図のサンプリング回数。

値がゼロ「0」の場合は、オリジナルと同じ。

3ノイズ除去強度」はアルゴリズムが画像の内容をどの程度参考にするか決定します。

ゼロ(0)にすると何も変わりませんし、1にすると全く無関係な画像になります

1.0未満の値では、スライダーで指定したサンプリングステップ数」よりも少ないステップ数で処理が行われます。

4画像の幅と高さを、何倍でアップスケールするか。(デフォルト値:2)

アップスケール値がデフォルト値(2)で縦横が2倍の場合、面積は(当然)4倍になるので生成時間も約4倍になる。
➡ よって「高解像度補助」に✅チェックを入れるタイミングは、作業効率上げる為に理想的な絵/気にいった画像」が生成された後に入れるのがおすすめ

だいやまーく既に生成済みの「お気に入り画像」のプロンプト確認する方法は以下記事内で公開中♪

『Stable diffusion web UI』お勧め拡張機能『Image Browser』インストール方法と基本的な使い方
画像生成AIツール『Stable diffusion web UI』のおすすめ拡張機能(Extensions)『Image Browser(画像ブラウザ)』のインストール方法と基本的な使い方を写真付きで解説します。 加えて『イメージブラウザ...
kozi001.com
2023年03月05日

5画像のサイズをこのに変更します。

値がゼロ「0」の場合、は近くにある2つのスライダーのいずれかから推測されます。

6画像のサイズをこの高さに変更します。

値がゼロ「0」の場合、高さは近くにある2つのスライダーのいずれかから推測されます。

Stable diffusion web UI』操作パネル(ユーザーインターフェース)4/4

[画像:Stable Diffusion web UI-ETA-Estimated Time of Arrival-bar-001]
Stable diffusion web UI 操作パネル(インターフェース)解説-004

1画像生成中のプレビュー画面、及び、生成後の画像(ギャラリー)が表示されます。

画像をクリックすると拡大表示され、矢印キー「←」「→」でスライドします。

くろまる画像生成中に表示される上部進行バーには「%」と「ETA(Estimated Time of Arrival):到着予定時間」が表示される。

2フォルダアイコン」をクリックすると、以下画像↓7「設定」➡「保存する場所」で設定されている画像出力ディレクトリフォルダが開きます。

[画像:Stable diffusion web UI 操作パネル(インターフェース)解説-001]

3保存」ボタンを押すと、画像をフォルダ(デフォルト:log/images)に保存。
加えて、生成パラメータをCSVファイルに書き出します。

Stable diffusion web UI 操作パネル(インターフェース)解説-004

4ZIP」ボタンをクリックすると、生成された画像圧縮ZIPファイルダウンロードできる。
加えて、圧縮されていないPNG画像も、同時にダウンロード出来ます。

[画像:Stable diffusion web UI 操作パネル(インターフェース)解説-004-02]

これはStable diffusion web UI』をローカル環境で使用し、既に画像がフォルダへ保存(出力)されている方にとって、需要が少ない機能だと思います。

5img2imgに転送」ボタンを押すと、生成した画像を「img2img」へ転送します。

img2img」タブ内から削除する時は、バツボタン「×ばつ」を押せば消えます。

6レタッチに転送」ボタンを押すと、生成した画像を「レタッチ(Inpaint)」へ転送します。

7その他に転送」ボタンを押すと、生成した画像を「その他」へ転送します。

Stable diffusion web UI 操作パネル(インターフェース)解説-004

以上がStable diffusion web UI』の基本的な使い方&操作パネル(UI)の概要解説です。

是非、クリエイティブな画像生成テクニックに役立てて下さい💕

『Stable Diffusion Web UI』スプリクト「X/Y/Z Plot」の基本的な使い方&実用的な活用術

【3分で語る】Stable diffusion web UI 拡張機能 LLuL&XYZ プロットの実用的な使い方😊画像の生成精度を更に高める方法💕YouTube NEW

✅本動画はスプリクトXYZプロット」の基本的使い方拡張機能LLuL」(ローカル潜在アップスケーラー)のインストール方法解説
加えてLLuL」&「XYZプロット」を組合せて使い、生成画像の精度を高め理想的な結果を得る為の実用的使い方解説しています。

スプリクト「X/Y/Z Plot」の基本的な使い方

1まず、スプリクトプリセットの中から「X/Y/Z Plot」を選択すると、隠されていたメニューが下部に出現します。

各「X軸」「Y軸」「Z軸」で「シード値」や「ステップ数」「CFGスケール」「サンプラー」「Checkpoint名(モデル名)」等の種類が選べます。
スプリクトプリセット選択メニュー スプリクトX/Y/Z Plot
今回の解説ではX軸」に「ステップ数Y軸」に「CFGスケール選択し、各「」を「SD WEB-UI」独自の入力規則(ルール)に従い記入(記載)します。
この時、シード値が「-1」でも全て、同じ数値に固定されます。
Z軸」に更にサンプラー等も選べますが、今回の解説では使いません。

Stable Diffusion web UI-Prompt-xyz-plot-presets-sampler-001a

サンプラー」を使用する場合は、右側のボタンを押せば「プリセット」が全て表示されるので、使いたいサンプラー名だけ残し不要な文字を削除して下さい。

くろまるステップ数の場合画像生成したい種類のステップ数を、それぞれカンマ区切り「,」で入力します。

例: 15,20,25,30,35,40,45,50 ➡ この場合「ステップ数」全8種類。

くろまるCFGスケール」の場合は最初の値」から「最後の値」の中間にハイフン「-」追加し、いくつ刻みで「」を増加させるかプラス「+」数字の組合せで指定します。

例: 6-12(+2)
この場合「CFGスケール」を開始「6」から最後「12」までの間に「2」刻みで増加。
➡ つまり「6」「8」「10」「12」で「CFGスケール」全4種類
本解説で使用したプロンプトを見る場合はクリック♪テーマ花嫁
モデル名:neverendingDreamNED_bakedVae.safetensors
プロンプト:(1girl:1.1), realistic, blonde, super model, smile, upper body, model pose, luxury white wedding short dress with rose pattern, detailed realistic face, gorgeous, (luxury diamond earrings:1.1), (luxury ruby necklace,:1.1), luxury jewelry tiara,
ネガティブプロンプト:nsfw, naked,(worst quality, low quality:1.3),Anime, fake, cartoon, deformed, extra limbs, extra fingers, mutated hands, bad anatomy, bad proportions , blind, bad eyes, ugly eyes, dead eyes, blur, vignette, asian, (2 girls:1.5), face shadow
和訳してみる方は『Google 翻訳』へコピペでどうぞ💕

Stable Diffusion web UI-Prompt-xyz-prompt-writing-sample-001a

2その後「生成」ボタンをクリックすると「ステップ数×ばつCFGスケール」4種類で ➡ 合計32枚の画像が出力される。と同時に「グリッド画像」も指定フォルダへ保存されます。

画像はクリックで拡大💕 再度クリックで閉じます♪
グリッド画像」の読み方(見方)は横が「X軸」で、縦が「Y軸」。とても簡単♪
そして、上の画像を見ると、左下の辺りが「破綻」している事が分かります。
さて、ここで終わっては(せっかく)「グリッド画像」を生成した意味が無いので、実用的に結果を次の手順へ活かします💕↓

生成画像の精度を高め理想的な結果を得る為のスプリクト「X/Y/Z Plot」活用術

1出力された「グリッド画像」を見比べ中から「お気に入り画像」を一つ選びます。

Stable diffusion web UI sprict-xyz_grid-sample-output-1920-001b

2本解説では、★マークの所「ステップ数45」「CFGスケール10」の画像を「お気に入り画像」として選んだので、各を変更した後に✅「高解像度補助」にチェックを入れ再生成します。

この時、使用されている具体例な「シード値」で数字固定(指定)して下さい。

Stable Diffusion web UI-Prompt-xyz-plot-test-sample-003-01a

生成済み画像」のプロンプト呼び出す方法は『イメージブラウザ』がお勧め💕↓
『Stable diffusion web UI』お勧め拡張機能『Image Browser』インストール方法と基本的な使い方
画像生成AIツール『Stable diffusion web UI』のおすすめ拡張機能(Extensions)『Image Browser(画像ブラウザ)』のインストール方法と基本的な使い方を写真付きで解説します。 加えて『イメージブラウザ...
kozi001.com
2023年03月05日

3そして、最終的に「生成」して出来上がった高画質の「お気に入り画像」がコチラ♪↓

★高画質したお気に入り画像」 「X/Y/Z Plot」で生成した「お気に入り画像」を同じシード値高画質化して再生成
急がば回れ」的な、素晴らしい結果(画像)を最後に得る事が出来ました♪
✅そして更に!拡張機能LLuL」を使うと、更に品質向上させる事が出来るので次の項目で解説します💕↓
拡張機能LLuL」の重み(Weight)の違いによる画像品質変化(★お気に入り画像)
★「LLuL」Weight 0.4 ★★「LLuL」Weight 0.5
のいちゃん
超美人過ぎる!完璧💕宝石と薔薇のアクセサリー最高♪

おすすめ拡張機能『LLuL』ローカル潜在アップスケーラーのインストール方法&実用的な使い方

拡張機能『LLuL – Local Latent upscaLer』ローカル潜在アップスケーラーとは?

画像一部分品質向上させ指定された箇所分離(抽出)してスケールアップさせた後、再度連結して画像描画品質向上させる拡張機能です。

おすすめ拡張機能『LLuL』ローカル潜在アップスケーラーのインストール方法

1拡張機能」タブを選択後 ➡ 2拡張機能リスト」を選択

『stable diffusion web UI』お勧め拡張機能『LLUL』インストール方法-001

3manipulation」の✅チェック外し4読込」を押すリスト表示されます。↑

5リストの中から「LLuL」を選び、右側の「インストール」を押します。↓

6インストール済タブ選択して「適用して再起動」を押す。

『stable diffusion web UI』お勧め拡張機能『LLUL』インストール方法-003

7再起動後に「LLuL」のメニュー追加され表示されたらインストール完了

『stable diffusion web UI』お勧め拡張機能『LLUL』インストール方法-005

拡張機能『LLuL』ローカル潜在アップスケーラーの使い方

1LLuL」をクリックしてメニューを開き有効」に✅チェックを入れます。

2重さ」(Weight)を、最大0.5位まで調整し、ネズミ色の四角(しかく)をマウス移動します。

『stable diffusion web UI』お勧め拡張機能『LLUL』の使い方-001

お知らせ😃【LLuLの灰色の四角の縦横比を元画像の比率に合わせ変更する手順】LLuL」の重みのスグ上の「倍率(2^N))」のスライドバー動かすと縦長(元画像の形)になります💕
なので、数字を1から変更後は元の1に戻して下さい。
これは『SD-WEB-UI』のアブデでいつか改善されると良いと願っている内容です。
(この症状は恐らく現在のバージョンの仕様だと思います)

3LLuL」メニューを閉じて最後に「生成ボタン押すと、画像が出力されます。

更にスプリクトX/Y/Z Plot」を併用して「LLuL Weight」を変化させ比較すると、更にベストな画像を見つける事が出来るのでお勧めです💕YouTube動画参照↓

【3分で語る】Stable diffusion web UI 拡張機能 LLuL&XYZ プロットの実用的な使い方😊画像の生成精度を更に高める方法💕YouTube NEW

アップスケーラー「4x-UltraSharp」の導入方法

高解像度補助のプリセットで使用できる「4x-UltraSharp」は、デフォルト標準では実装されてません
よって、以下リンク先より「4x-UltraSharp.pth」をダウンロードして追加します。
lokCX/4x-Ultrasharp at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co

くろまるファイルのインストール先は、以下のフォルダ内。

例: L:\stable-diffusion-webui\models\ESRGAN
4x-UltraSharp.pth」を使用すると名前の通り、超シャープになります。
のいちゃん
超〜お勧め💕

ENSDの意味と使い方。ENSD:31137とは?ENSDの場所はどこにある?

Civitai.com」等のモデルサイトで一般公開されている、画像の「生成データ(Generation Data)」に含まれる「ENSD:31337」について解説します。

ENSD」とは?

くろまるENSD」は「Eta noise seed delta(イータ・ノイズ・シード・デルタ)」の略語です。

ENSD」の場所はどこにある?(Stable diffusion web UI)

くろまるENSD」のある場所はStable diffusion web UI』のブラウザ画面で「設定」➡「サンプラーのパラメータ」を開くと「Eta noise seed delta」が下の方に有ります。

Stable Diffusion web UI-ENSD-31137-eta noise seed delta-001

ENSD」の意味と使い方

くろまるEta noise seed delta(ENSD)」の初期値(デフォルト値)はゼロ「0」です。

この値がゼロ(0)以外の場合、シード(seed)に追加され「Eta」でサンプラーを追加する時にノイズの「RNG(乱数発生器)」を初期化する為に使用されます。
RNG」は「Random Number Generator」の略語で、ランダムな数字を発生させる「乱数発生器」を意味します。
これを使用して更に多くのバリエーションの画像を生成したり、他のソフトウェアの画像と一致させる事が出来ます

くろまる「ENSD:31337」にする場合は値を「0」から ➡「31337」に変更し、「設定を適用」を押してから「UIの再読み込み」ボタンを押せば内容が更新されます。

問題解決の為の忘備録メモ

本項目は様々な問題解決の為の忘備録メモです。
私、又は周囲で発生した事例と対策方法を随時記録しています。

Loraが使えない・効かない・使えなくなった。

まず、大前提として拡張機能はアップデートすると使えなくなる場合が有る。
もしくは、他の機能に影響を与え使えなくなる事が有る。

くろまる問題:拡張機能「a1111-sd-webui-locon 」がインストールされていると「Lora」が使えなくなる事例が発生。↓↓

[CRITICAL]All LoRAs not working anymore · Issue #40 · KohakuBlueleaf/a1111-sd-webui-locon
locon load lora method loading Lora I:\GitHub\stable-diffusion-webui\models\Lora\Vehicle.safetensors: AttributeError Tra...
github.com

くろまる対策:locon をオフにする、又は削除する。その場合、端末と起動コマンドプロンプト、両方の再起動が必要です。

作者:KohakuBlueleaf 氏のコメントを日本語で引用 この拡張機能(locon)は基本的に非推奨であり、正式な更新はまったくありません。
代わりにa1111-sd-webui-lycoris を使用することを検討してください

イメージブラウザ(Image Browser)の画像が表示されない

くろまる問題:拡張機能イメージブラウザ」をアップデートすると画像読込みエラーが発生する。
くろまる対策:以下記事参照。↓↓

SD WEB-UI 拡張機能 Image Browser 画像読込みエラー解決方法
『Stable diffusion web UI』の拡張機能「イメージブラウザ」をアップデートした事による画像の読込みエラーの解決方法を、状況、原因、解決方法の流れで順番に解説します。 だいやまーく『Stable diffusion web UI』お...
kozi001.com
2023年04月24日

Stable diffusion web UI』本体をバージョンアップ(アップデート)したら拡張機能などが使えくなった。不具合やバグが発生した。

くろまるStable diffusion web UI』本体の環境を、フォルダ名を変えて2環境(2つ)インストールしておくと、いざという時に役立ちます。

例:拡張機能が使えなくなった場合は、使える方のフォルダをコピーすれば、スグに復旧できます。

くろまる筆者おすすめの提案は「ZIPファイル版」と「git clone インストール版」両方の運用。

もしくは「git clone インストール版」を新旧、バックアップの為に2種類運用する。

✅「git clone インストール版」のダウングレードは、コミットハッシュ(commit hash)が分かれば元に戻せます。
しかし、モデルや拡張機能は共有できない為、ハードディスク容量には優しくない。

LORAモデルのサムネイル画像が一部表示されず読み込まれなくなった

くろまる現在選択されているメインのモデル(.ckp)を、別のモデルに切り替えると直る場合が有ります。

私は最初コレで解決できました。
原因は分かりませんが、体感的には何かが作業途中でフリーズした気がします。

No Image data blocks found.(画像データ ブロックが見つかりません)

SD-WEB UI」のコマンドラインに「No Image data blocks found.」と表示された場合、以下のフォルダ内に不要なファイルが存在する可能性が有ります。

「Texutual Inversion」「Hypernetworks」「Checkpoints」「Lora」

くろまる具体的には「Texutual Inversion」「Hypernetworks」内の、サムネイル画像のファイル名が、「モデル名.preview.png」の文字が「有り&無し」で2種類(2枚)フォルダ内に存在している。

私の場合は「.preview」が有る方を残し、無い方のサムネイル画像を削除する事で解決できました。
よって、「Checkpoints」「Lora」フォルダ内のファイル名が重複する場合も、将来的に同じ事が起こる可能性があるので、私は今後も警戒する事にしました。
結論:記事内「サムネイル画像登録」の所でも解説しましたが、やはり
「サムネイル画像」は「.preview」有りの方で統一した方が良いようです。

絵画のジャンル(全20種類)画風・作風・スタイル

『SD-WEB-UI』画像生成のプロンプトで使用(活用)できる様々な絵画のジャンル(全20種類)画風・作風・スタイルについて概要を解説します。
絵画の多様性を知る事で、AIアートのバリエーションを更に豊富にする事が出来ます。
絵画(painting)は、芸術の中でも特に魅力的で多様な表現を持つものです。
様々なスタイルやテクニックによって、アーティストたちは独自の世界を作り出し、視覚的な饗宴(きょうえん)を提供してくれます。
のいちゃん
リアリスティックやアニメだけじゃない💕

1オイルペインティング(油絵)- Oil Painting

オイルペインティングは、豊かな色彩と質感が特徴であり、緻密な描写が可能です。
アーティストたちはキャンバスに油性絵具を使い、複雑な色調やテクスチャーを表現します。

2アクリルペインティング – Acrylic Painting

アクリルペインティングは、乾燥が早く即座に表現を完成させる事ができる為、アーティストたちに人気です。
様々なスタイルやテクニックに適しており、鮮やかな色彩と幅広い表現力を持っています。

3水彩画 – Watercolor Painting

水彩画は透明感と優雅さがあり、水の流れを活かした独特な表現が可能です。
薄い層から濃い層までを重ねて描き、柔らかな色調と淡いトーンを作り出します。

4パステル画 – Pastel Painting

パステル画は、軽やかで柔らかな色彩が特徴であり、手触りのあるテクスチャーが絵画に深みを与えます。
パステルカラーを使って描かれた作品は、柔らかな雰囲気と豊かな表現力を持っています。

5インク画 – Ink Painting

インク画は、繊細な線や墨の質感を駆使してシンプルで力強い作品を生み出します。
筆やペンを使い、墨を滴らせることで独特な表現が可能です。

6エッチング – Etching

エッチングは酸によって凹版を作り出し、細かなディテールを表現する版画の一形態です。
アーティストたちは鋼板や銅版を使って作品を制作し、独特な質感と緻密な描写を追求します。

7リトグラフ – Lithography

リトグラフは、石版や金属版を使用して豊かな色彩や質感を表現する版画の一種です。
アーティストたちは版を使って複製を作り出し、鮮やかな印象や独自のテクスチャーを生み出します。

8ポートレート画 – Portrait Painting

ポートレート画は、人物の顔や表情を描いた作品です。
アーティストたちは写実的な描写や個性の表現に注力し、被写体の特徴を捉えます。

9静物画 – Still Life Painting

静物画は、生物や風景の代わりに日常の物体を描いた作品です。
アーティストたちは物体の配置や光の反射などに注意を払い、物体の形状や質感をリアルに再現します。

10風景画 – Landscape Painting

風景画は、自然や都市の風景を描いた作品です。
アーティスト達は風景の美しさや雰囲気を捉え、大自然の壮大さや都市の喧騒を表現します。

11抽象画 – Abstract Painting

抽象画は具象的な対象を描かず、形や色彩、線やテクスチャーに重点を置いた作品です。
アーティストたちは個々の感情やアイデアを自由に表現し、観客に独自の解釈や感じ方を促します。

12キャンバスによるコラージュ – Canvas Collage

キャンバスによるコラージュは、異なる素材や要素を組み合わせて作品を構築する手法です。
アーティストたちは絵具やテキスタイル(縦糸と横糸の組み合わせによって作られた織物、布地のこと)、写真などを使い、視覚的な多様性を追求します。

13モザイクアート – Mosaic Art

モザイクアートは、小さな色や形の断片を組み合わせてパターンや画像を作り出す技法です。
アーティストたちは陶磁器やガラス、石などの素材を使い、緻密なデザインと色彩の調和を追求します。

14デジタルアート – Digital Art

デジタルアートは、コンピューターやグラフィックソフトウェアを使って作成される絵画の形式です。
アーティストたちはデジタルツールの利点を活かし、独自の表現手法やビジョンを実現します。

15立体絵画 – Sculptural Painting

立体絵画は、平面のキャンバスではなく立体的な形状や構造を持つ作品です。
アーティストたちは素材や彫刻技法を駆使し、作品の奥行きや触感を追求します。

16フレスコ画 – Fresco Painting

フレスコ画は、湿った石灰と顔料を塗布することによって壁面に描かれる作品です。
アーティストたちは湿った石膏や壁に対して速やかに描写を行い、作品を壁面に固定させます。

17ミニチュア絵画 – Miniature Painting

ミニチュア絵画は、小さいキャンバスや紙に細密な描写を施した作品です。
アーティストたちは微細な筆使いや色彩のコントロールを駆使し、小さなスケールでの表現力を追求します。

18ポップアート – Pop Art

ポップアートは、大衆文化や広告から影響を受けた作品です。
アーティスト達はポップカルチャーや商品文化を取り入れ、鮮やかな色彩と大胆な表現で社会的なメッセージを伝えます。

19レアリズム – Realism

レアリズムは写実的な表現に重点を置いた作品のスタイルです。
アーティストたちは細部まで忠実に描写し、視覚的な現実を追求します。

20モノクローム絵画 – Monochromatic Painting

モノクローム絵画は単一の色調やグレースケールで構成された作品です。
アーティストたちは明暗や質感を活かし、単色の中での表現力や効果を追求します。

結論:まとめ

絵画の多様性は無限大であり、アーティストたちは様々なスタイルやテクニックを駆使して個々の表現を追求しています。
✅これは、AIアートの世界でも共通して言える事です。
本項目では、オイルペインティングからモノクローム絵画まで、20の絵画の種類を紹介しました。
それぞれのスタイルは独自の美しさと魅力を持ち、異なる視覚的な体験を提供してくれます。
絵画の多様性を理解し、アーティスト達の思想や創造力・表現力を感じ取る事で、AIアートの魅力をより深く味い、表現する事が出来るようになるでしょう。

AI画像生成ツールを活用する事で出来る事。メリット

「AI画像生成ツール」は様々な事に活用してメリットを得る事が出来ます。

創造性の拡張

AI画像生成ツールは、独自のアート作品やデザインのアイデアを生み出すのに非常に役立ちます。
自分自身では思いつかないような斬新なデザインやイメージを作り出す事が出来ます。

時間と労力の節約

手作業でイメージ(画像)を作成するには時間と労力がかかりますが、AI画像生成ツールを使用する事で短時間で多くの画像を生成する事が出来ます。
これにより、クリエイティブなプロジェクトの進行をスピードアップさせる事が出来ます。

リソースの多様化

AI画像生成ツールは、様々なスタイルやテーマの画像を生成する事が出来ます。
例えば、抽象的なアート、風景写真、インテリアデザイン、映画のポスター作成、YouTubeやTwitter等のSNSのバナー(ヘッダー画像)作成、アバター、アイコンなど、様々な要件に合った画像を作成する事が出来ます。

ブランディングとマーケティング活用

AI画像生成ツールを使用する事で、ブランドや製品のイメージを簡単に作成する事が出来ます。
洗練された鮮やかなロゴ、プロフェッショナルなバナー広告、魅力的な商品画像などを作成する事で、ブランドの魅力を高め、マーケティング効果を向上させる事が出来ます。

様々なバリエーションの画像を作成して実験・テスト

AI画像生成ツールは、様々なバリエーションの画像を生成する事が出来ます。
➡ これにより、異なるデザインやスタイルのオプションを試し、最適な選択肢を見つける事が出来ます。
デザインやコンテンツの実験を通じて、クリエイティブなアイデアをさらに洗練させる事が出来ます。

プロジェクトの柔軟性

AI画像生成ツールは、画像のサイズや解像度の調整、色調の変更、エフェクトの追加など、プロジェクトの要件に合わせて画像をカスタマイズできます。
➡ これにより、クリエイティブなビジョンを実現する為に、より柔軟なアプローチが可能になります。

まとめ

今回は『Stable diffusion web UI 』を使用可能にする為に、私が実際に作業したインストール手順、及び基本的な使い方各ツールインストール方法、操作パネル(UI)の概要LoRaの使い方などを、解説&ご紹介しました。

本記事解説使用した画像モデルは『civitai.com』の「Clarity」「3DKX_V2」&「neverendingDreamNED_bakedVae」「LoRa:fashionGirl_v45」です。

くろまる今回記事をまとめて感じた事はStable diffusion web UI』は人間のように「曖昧」「いい加減」「適当」「中途半端」な要素を(良い意味で)数多く含める事が可能、だと言う事。

➡ つまり「ガチャ」的な要素が「サンプリングアルゴリズム」「CFGスケール」「シード値」の調整次第で、クリエイティブな画像を自動生成し、ユーザーが望む以上の良い結果を得られる可能性が有る
この辺りが「人工知能(AI)ツール」の非常に良い所であり、毎回決められた同じ作業だけを正確に行う「産業ロボットとの違いだと思います。

くろまる余談ですが「適当」の意味をネット辞書で調べると「ちょうどよく合う事」「ふさわしい事」「ある条件・目的・要求などに、うまく当てはまる事」などと出てきます。

よく「適当にやる」とか言いますが、決して悪い意味で「いい加減」「乱雑」「手抜き」ではない事が分かります。ね💕

くろまるさて、本記事を書いた時点の筆者のPC環境は以下の通り。↓

グラフィックボード(GPU):TUF-RTX3080TI-O12G-GAMING [PCIExp 12GB]
プロセッサ(CPU):Intel Core i9-10900K
メモリ(RAM):DDR4 ×ばつ4枚(合計128GB)

くろまる画像生成AI(人工知能)ツール」は、次世代に向けて急速な進化が期待される新たな分野です。

他のAIツール『ChatGPT』等と組み合わせ併用したり、PCゲームと組み合わせたり、様々な分野でAI活用・発展・進化は加速していくでしょう。

のいちゃん
ご講読ありがとうございました💕

>> 「自由生活情報サイト!コスパるTiME」TOPへ

スカイリムで吸血鬼になる方法&治療方法+関連オススメMODまとめ
『Stable diffusion web UI』お勧め拡張機能『Image Browser』インストール方法と基本的な使い方

AltStyle によって変換されたページ (->オリジナル) /