初心者必見!!Stable Diffusionの使い方・利用方法を丁寧に解説
最近、Stable Diffusionについての話題を
耳にすることが増えましたね。
でも、具体的にどのように使えるのでしょうか?
- Stable Diffusionを使ってイラストを描きたい
- AIについて詳しくないけど興味はある
- 完全初心者だから0→1の始め方の説明してほしい
こういった悩みや要望に応えられるような
記事構成にしているのでぜひ、ご活用ください♪
『プログラミングとか専門スキル全くなくてもできるの!?』
『PC苦手で不安…』
そのような悩みがあると思います。
でも安心してください!!
筆者も同じでした笑
そんな自分ができるようになったので
この記事を読めばあなたも今日から始められます!!
完全初心者向けに記事を書いてるので
ぜひ、参考にしてみてくださいね♪
Contents
脱初心者!Stable Diffusion:準備編
Stable Diffusion(ステーブル ディフュージョン)とは
Stable Diffusion(ステーブル ディフュージョン)は、近年の深層学習やAI技術の進化に伴い注目されるようになった
高度な画像生成技術の一つです。
特徴としては、
ユーザーが命令した呪文(プロンプト)を理解してイラスト生成してくれるので
上手く使いこなせると思い通りのイラストを作成できる画期的なツールとなっています!!

この技術が身に付けば絵心0の方でも
プロのようなイラストが作れてしまう夢のようなもの∑(゚Д゚)
例えば、プロンプトに『beautifull sea(美しい海)』
と入力して画像を出力してみると…
こんな簡単に綺麗な海のイラストが
作れてしまいます!!
もちろん、これに人物を
加えることだって可能です♪
実際の動作プロセス
Stable Diffusionの動作プロセスは、
大まかには以下のステップで構成されています。
- 初期データの収集: 対象となる画像やデータセットを収集します。このデータは、Stable Diffusionが学習するための基盤となります。
- 学習フェーズ: 収集したデータをもとに、深層学習のモデルを訓練します。このフェーズでは、データの特徴やニュアンスをしっかりと捉えることが重要となります。
- 生成フェーズ: 訓練されたモデルを使用して、新しい画像を生成します。この際、ユーザーが指定した条件や要件に応じて、カスタマイズされた画像が生成されます。
- 最適化とフィードバック: 生成された画像に対して、必要に応じて微調整や最適化を行います。また、ユーザーからのフィードバックを取り入れて、モデルの再学習やアップデートを行うことも可能です。
このように、Stable Diffusionはデータの収集から最適化までの一連のプロセスを通じて、
高品質な画像を効率的に生成することができます。
Stable Diffusionの利用方法
Stable Diffusionを利用するには、
主に2種類の方法があります。
ネット上に存在する既存サービスを使って行うか、自分のPC(ローカル環境)で行うか。
以下にそれぞれの長所と短所を
表形式でまとめました。
Stable Diffusionの利用方法の比較
ネット上のサービス利用 | ローカル環境でのセットアップ | |
---|---|---|
長所 | ||
1. | 手軽さ | 完全なコントロール |
2. | メンテナンスフリー | カスタマイズの自由度 |
3. | 初心者に優しい | データのプライバシー |
短所 | ||
1. | コスト | 初期設定の複雑さ |
2. | カスタマイズの制約 | ハードウェア要件 |
3. | プライバシーの懸念 | 継続的なメンテナンス |
正直長所と短所は分かったけど結局どっち使えばいいの!?
そんな感じかと思います笑

迷ったらネット上のサービスを使うことを強くおすすめします( ✌︎’ω’)✌︎
思ってる以上にローカル環境で始めるまでの準備がめんどくさいし複雑です…
スタートラインから躓いていたらすごくもったいないので
手軽にできるネット上のサービスを使ってみましょう〜
では、具体的に何を使えば良いのか!?
ズバリ!!『Google Colab』がStable Diffusion初心者に大変おすすめです♪
なぜGoogle Colabがおすすめなのか!?
Google Colab(Colaboratory)は、
Googleが提供するクラウドベースのJupyterノートブック環境を使っていて
画像生成で必要な膨大なGPUを面倒なPCの設定なしに気軽に使えてしまうところが強みです!!
Stable Diffusionを利用する上でColabが特におすすめな理由は、以下の点が挙げられます。
- 気軽にGPUアクセス:Google Colabは月額1000円程でGPUを提供しており、このGPUを使用してStableDiffusionの計算を高速化することができます。特にイラスト生成においては、計算量が非常に多くなるため、GPUの利用はほぼ必須と言っても過言ではありません。
- 難しい環境構築が不要:ローカルではPythonの環境構築が必要ですがGoogle Colabを使えばブラウザ上でPythonを使えるのでプログラミング初心者に優しい。
- 共有の容易さ:作成したノートブックは簡単に共有することができ、チームでの作業やコミュニティでの知識共有に役立ちます。

簡潔に言うと、初心者がハードルに感じるPCの設定や専門的なプログラミングスキルを必要とせずとも利用できる環境をGoogle Colab側が事前に用意してくれています♪
↓Google Colabの利用方法についてこちらで詳しく解説しています。
【初心者用】Stable Diffusion web UIをGoogle Colabで起動する方法
これでStable Diffusionを
使えるようになります( ✌︎’ω’)✌︎
Stable Diffusionの基本操作:初級編
初級編〜上級編は前述の説明にある
Google ColabからStable Diffusionを起動した
前提での説明になります。
Google Colabの利用方法の記事を読めば
これから説明する内容は理解できるので
ご安心ください٩( ‘ω’ )و
では、実際にインストールが完了したら
Stable Diffusionの基本操作から用語解説に
入ります〜
- どうやったらイラスト生成できるか
- Stable Diffusion画面の各項目の意味
この2点はStable Diffusionを扱う上での基礎なので必ず覚えておきましょう〜
↓以下の記事で詳しく解説しています!!
基礎をおさえておけば
大抵のイラストは作れちゃいます٩( ‘ω’ )و
Stable Diffusionにモデルを取り込む
Stable Diffusionの基礎を学んだら
次は画像生成の醍醐味であるモデルの設定です!!
あなたがイメージしてるイラストは基本的にモデルを利用することで生成されています。
ちなみにデフォルトのモデルで出力すると…
こんな感じになります笑
めちゃくちゃ怖い…( ; ; )
専用のモデルを駆使してイラスト生成すると
リアル(実写)系美女だったり
アニメ(二次元)系美少女
などハイクオリティなイラストを作ることができます♪
でも、どういうモデルを選んだらいいの!?って
気になるかと思います。
リアル(実写)系、アニメ(二次元)系それぞれおすすめのモデルを以下の記事で紹介してるので
ぜひ、参考にしてみてください!!
Stable Diffusionのモデルをダウンロード可能なサイト2選
以下の2サイトがStable Diffusionのモデルを
ダウンロードすることが可能です
- Civitai
- Hugging Face
それぞれ取り扱ってるモデルが違うので
どちらがいいとか一概には言えません。
ただ、個人的には初心者には
“Civitai”から始めることをおすすめします!!
出典元:civitai
civitaiはイラストを見て判断できるので
モデルに詳しくない初心者の方も
イメージしやすいので簡単に選べます!!
あと、使いやすいです♪
以下の記事でCivitai、Hugging Faceそれぞれの
特徴やダウンロード方法を詳しく解説してるので
ぜひ、読んでみてください!!
Stable DiffusionのVAEの活用
VAEとその効果について
Stable Diffusionでは、VAE(変分オートエンコーダ)という技術も使用されています。
VAEを用いることで、よりリアルな画像や文書を
生成することが可能となります。
具体的には、与えられたプロンプトに基づき、高品質な出力を得るための補助としてVAEが働きます。
分かりやすく説明するために比較画像を載せておきます♪
VAEなし
VAEあり
どうでしょうか⁉️少し分かりにくいかもですが
VAEありの方がトーンが明るくなったような感じがしませんか?
今回は以下のVAEを使用しました!!
『vae-ft-mse-840000-ema-pruned』
引用:Hugging Face
色んなモデルに対応できる比較的汎用性の高いVAEを使いましたが
モデル専用のVAEも存在するので色々と試して
クオリティを上げていきましょう〜
↓以下の記事では、VAEのDL方法〜設定方法まで
詳しく解説しています♪
Stable Diffusionのプロンプトの入力
モデルの設定が終わりStable Diffusionを起動したら
プロンプト(呪文)を入力してあなたのお気に入りのイラストをたくさん作りましょう〜
AIに画像生成してもらう上での命令文みたいなもの
AIはプロンプトの情報を元に
イラスト生成します!!
ですが、闇雲にプロンプトを打っても思い通りの
イラストを作るのは難しいです。
プロンプトを入力する際のコツや法則が存在します。
まずは、それを把握した上で呪文の入力をしてみましょう〜
↓以下の記事でプロンプトについて詳しく解説しています!
Stable DiffusionのLoRAの導入:中級編
モデルも設定して、プロンプトも覚えた!!
だけど、自分の好きなアニメキャラと似てないな〜
ってなっているかと思います(^_^;)
そうなんです!メインモデルとプロンプトを駆使して
ある程度近づけることはできても中々難しいのが
現状です…
そこで、LoRAという素晴らしい機能をご紹介します♪
これは、既存モデルを微調整してくれる画期的な技術です。
もっと分かりやすく言うと特定の要求やニーズに合わせてモデルをカスタマイズしてくれます!!

LoRAを覚えて自分の好きなキャラを生成できるようになってから
Stable Diffusionの楽しさと技術の高さに魅了されました☆*:.。. o(≧▽≦)o .。.:*☆
リゼロのレムやSPY×FAMILYのアーニャなど
人気キャラをStable Diffusionで作れちゃいます♪
レム(Re:ゼロから始める異世界生活)
アーニャ(SPY×FAMILY)
どうでしょうか!?これすごくないですか!笑
こうやって好きなキャラに似せたり指定の洋服や
装飾、風景、ポーズや構図など
あなたが生成したい思い通りのことができちゃいます٩( ‘ω’ )و
↓LoRAの導入方法や使い方など以下の記事で詳しく解説しています
Stable Diffusionの拡張機能の導入:上級編
ここまで来たらプロンプトやモデルの導入には大分慣れてきましたかね!
そして、プロンプトやモデルだけでの限界も悟ってしまったかと思います笑
そうなんです…
どんなに上手いプロンプトの指示を出しても自分が想定していた
イラストとかけ離れてしまうことがあります(._.)
何回も何回も出力してを繰り返してガチャをしていると疲れちゃいますよね
ですが、この記事を読んでいただいてるあなたには妥協しないで欲しいです!!
こんな時に便利なのが拡張機能です

正直この機能を最初使った時はビビりました笑
もう日本と宇宙ぐらいの差の衝撃です!!
筆者もこの機能を知ってから思い通りの画像が生成できて上達しました( ✌︎’ω’)✌︎
拡張機能はStable Diffusion Web UIのデフォルトに備わっていない便利機能を追加できる仕組みです。
ポジティブプロンプトやネガティブプロンプトで
細かく命令しても
ポーズが違ったり、画質がいまいちだったり、
手が変形していたりなどないでしょうか!?
これらの問題を拡張機能は簡単に解決してくれます♪
特にAIは手指が苦手なのでこの機能は大変助かります。
- ポーズや構図指定
- 構図制御
- 画像ビューア
- プロンプト入力補助
- 便利系機能
挙げたらキリがないくらいおすすめ機能がたくさんあります。
その中でも一番人気で必須級の拡張機能を
紹介しておきます♪
それが、『ControlNet』です!!
ControlNetは先程挙げたポーズや構図指定ができる拡張機能です。
例えばですが、上の画像と同じポーズにすることができます!
他にも崩れた手指を補正してくれたり、
画質を向上させたり、線画にしてくれたりなど
様々な機能が存在します。
拡張機能を使いこなしたら
プロのイラストレーターと遜色ないレベルの作品を
作れちゃいます!!
↓拡張機能について以下の記事で詳しく解説しています
初心者必見!!Stable Diffusionの使い方・利用方法を丁寧に解説のまとめ
いかがだったでしょうか!?
この記事では、完全初心者向けにStable Diffusionの使い方・利用方法を解説していきました〜
最初は難しいかもしれませんが
この記事を一通り読めば、Stable Diffusionが
使えるようになると思います♪
Stable Diffusionは初級から上級者まで幅広く利用できる強力なツールです。
基本操作から拡張機能の導入まで、
この記事を参考にして、Stable Diffusionを最大限に活用しましょう。
この記事へのコメントはありません。