

「Stable Diffusionって聞くけど、結局どうやって始めればいいの?」「ローカル環境とクラウド版、自分にはどっちが向いてる?」そんな疑問にお答えします。こんにちは、大阪の会社員kobitoです。この記事では、オープンソース画像生成AIの大本命・Stable Diffusionの使い方と始め方を、非エンジニアの筆者が実際に試した体験ベースで解説します。PCスペックに自信がない人でも、クラウド版という逃げ道があるので安心してください。
本記事には一部アフィリエイトリンクが含まれます。商品・サービスの紹介内容は筆者の実体験・公式情報に基づいており、購入判断は必ず公式サイトで最新情報をご確認ください。料金・機能は2026年4月時点の情報です。
- Stable Diffusionの基本情報と2026年時点の最新モデル
- ローカル環境とクラウド版のコスト・速度・自由度の違い
- AUTOMATIC1111を使った始め方の具体手順
- プロンプトのコツとトラブル時の対処法
Stable Diffusionとは?基本情報をおさらい

Stable Diffusionは、Stability AI社が2022年に公開したオープンソースの画像生成AIです。MidjourneyやDALL-E 3と並ぶ代表的な画像生成AIですが、「モデル自体が無料で配布されていて、自分のPCで動かせる」という点が最大の特徴です。
- 開発元: Stability AI(イギリス)
- ライセンス: オープンソース(商用利用可、モデルによる)
- 最新モデル: SDXL 1.0 / Stable Diffusion 3(SD3)
- 動作環境: Windows / Mac / Linux / クラウド
- 料金: モデル自体は無料(クラウド版は月額あり)
MidjourneyやDALL-E 3と違い、生成したい画風や用途に合わせて「モデル(チェックポイント)」を差し替えられるのが強みです。アニメ調・実写系・イラスト系など、専門特化モデルがHugging FaceやCivitaiで大量に公開されています。
ローカル環境 vs クラウド版 どっちを選ぶべき?
初めて触るときに一番悩むのがここです。それぞれのメリット・デメリットを表にまとめました。
「まずはクラウド版で触ってみて、ハマったらローカル環境に移行」がおすすめです。筆者は最初ローカルで挫折し、クラウドで慣れてから戻った派です。
ローカル環境 vs クラウド版 ひと目で比較
前提条件:ローカル環境に必要なスペック
ローカルで動かすなら、以下のスペックが目安です。
– GPU: NVIDIA製、VRAM 8GB以上推奨(SDXLなら12GB以上)
– メモリ: 16GB以上
– ストレージ: 50GB以上の空き(モデル1個で2〜7GB)
– OS: Windows 10/11、macOS(Apple Silicon対応)、Linux
VRAMが4〜6GBでも動くには動きますが、SDXLでは生成に数分かかったり途中でエラーになったりします。非エンジニアの方や古いPCの方は、素直にクラウド版を選んだ方が精神衛生上よいです。
Stable Diffusionの始め方ステップ
📋 ローカル版の始め方(AUTOMATIC1111)
インストール時にPythonのパスを通し忘れると延々とエラーが出ます。筆者はここで2時間溶かしました。インストーラー画面で「Add Python to PATH」のチェックを絶対忘れないでください。
起動コマンドは以下のような感じです。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui-user.bat # Windows
./webui.sh # Mac / Linux画像生成の流れ|プロンプトから画像まで
プロンプトのコツ|呪文テクニック
Stable Diffusionは「プロンプト(呪文)」の書き方で結果が大きく変わります。押さえておきたいテクニックを紹介します。
– ポジティブプロンプトは具体的に: 「a cat」より「a fluffy white cat sitting on a wooden chair, soft light, 50mm lens」の方が狙い通りの絵になります。
– ネガティブプロンプトで除外: low quality, blurry, extra fingers, bad anatomy などを入れると品質が安定します。
– 強調構文 (word:1.3): 丸カッコと数字で強調。1.0が基準、1.3で強め、0.8で弱め。
– 品質タグを先頭に: masterpiece, best quality, highly detailed といった定番タグを冒頭に入れると底上げされます。
– 画風指定: photorealistic / anime style / oil painting のように明示するとブレません。
プロンプトの考え方はMidjourneyの使い方・始め方の記事とも共通する部分が多いので、そちらも参考になります。
クラウド版のおすすめサービス
「環境構築が面倒」「GPUを持っていない」人向けに、ブラウザで使えるクラウド版を紹介します。
まず触りたいならMage.space、AUTOMATIC1111の機能をフルに使いたいならRunDiffusion、自分のアプリに組み込みたいならReplicateという選び分けが分かりやすいです。
トラブルシューティング
初心者がつまずきがちなポイントと対処法をまとめました。
② PyTorchがCUDA版か(
python -c "import torch; print(torch.cuda.is_available())"でTrueになるか)③ モデルファイル(.safetensors)のサイズが公式と一致しているか
– 「CUDA out of memory」エラー: VRAM不足。画像サイズを512×512に下げる、–medvramオプションをつける、batch sizeを1にする、で大体解決します。
– 生成がとにかく遅い: GPUではなくCPUで動いている可能性大。PyTorchがCUDA版でインストールされているか確認を。
– NSFW誤検出で黒塗り画像: Safety Checkerが過敏なことがあります。SD3以降では仕様が変わるため、最新情報をチェックしてください。
– モデル読み込み失敗: .safetensors形式を使い、ファイルサイズが壊れていないか確認。ダウンロード途中で切れているケースが多いです。
FAQ
あわせて読みたい
📖 関連記事画像生成AI比較
📖 関連記事Midjourney
📖 関連記事DALL-E 3
まとめ|まずはクラウドで触ってみよう
Stable Diffusionは、自由度の高さと無料で使える点で他の画像生成AIにはない魅力があります。一方で、ローカル環境の構築は非エンジニアにはハードルが高いのも事実。筆者のおすすめは「Mage.spaceなどのクラウド版で2週間くらい遊んでみて、もっと深くいじりたくなったらローカル版に進む」という二段階アプローチです。
モデルを差し替えれば画風ががらっと変わる楽しさは、一度味わうとやめられません。この記事を参考に、ぜひ最初の1枚を生成してみてください。


コメント