Stable Diffusionで画像生成を高速化!LCMの使い方について解説

当サイトはプロモーションを含みます。

手順を真似するだけで
すぐに高クオリティの画像生成ができる!

📖Stable Diffusionの導入から使い方まで全てを網羅できる初心者入門書!📖

画像生成を高速化したい!
LCMの使い方を教えて!


通常のCheckpointモデルでは「Sampling steps」を「5」に設定して画像生成すると

ぼやけた画像で生成されて人物を綺麗に生成することが出来ません。



LCMのCheckpointモデルを使用することで

「Sampling steps」を「5」に設定して画像生成した時に

綺麗に人物を生成することが出来ます。



この記事では

綺麗な画像生成を高速化できるLCMの使い方について解説するので

参考にして使用してみてください!

生成AIを活用した副業をしてお金を稼ぎたいと悩んでいませんか?

以下のリンクでは生成AIを使った副業について教えています!

スキル不要・顔出し不要で、初心者でも簡単に1時間程度で出来る副業となっています。

気になった方は以下のリンクから内容の詳細をチェックしてみてください!

【10/6まで割引中!】
・【AI×占い】スキル・顔出し不要で初心者でも月10万稼ぐための収益化術!

・AI副業の全てが分かる教材を販売中!
目次
\理想の画像生成をするまでに時間がかかってしまう方へ!/
【累計販売500部突破!】

すぐに理想的なポーズの画像生成をしたいと思いませんか?

以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。

●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。

詳細はこちら!

「blue_pencil-XL-LCM」のCheckpointモデルを導入する


LCMのCheckpointモデルはいくつかあるのですが

ここでは例として、LCM(Latent Consistency Model)がマージされている

「blue_pencil-XL-LCM」のCheckpointモデルを導入してから使用していきます。


「blue_pencil-XL-LCM」は、CIVITAIからダウンロードすることが出来ます。


以下のリンクにアクセスしてください。

あわせて読みたい



ローカルの方は、アクセスしたら右側にある「ダウンロードアイコン」をクリックしてファイルをダウンロードしてください。

ファイルは通常のCheckpointモデルと同じように「models/Stable-diffusion/」の中に入れてください。



Google Colabの方は、ダウンロードURLが必要なので

「ダウンロードアイコン」をクリックしてから「Model SafeTensor」の場所で右クリックしてください。


Google Chromeの場合ですが、「リンクのアドレスをコピー」をクリックしてダウンロードURLをコピーしてください。


「sdxl_vae」を導入する


次はVAEである「sdxl_vae」を導入しましょう。

このVAEを導入して使用しないと、画像生成した時に全体が青い画像で生成されるので必ず入れましょう。


以下のリンクにアクセスしてください。

あわせて読みたい
stabilityai/sdxl-vae at main We’re on a journey to advance and democratize artificial intelligence through open source and open science.



ローカルの方は

「sdxl_vae.safetensors」の右側にある「ダウンロードアイコン」をクリックして

ファイルをダウンロードしてください。

「models/VAE/」の中にファイルを入れてください。



Google Colabの方は、「ダウンロードアイコン」の場所を右クリックしてから

「リンクのアドレスをコピー」をクリックしてダウンロードURLをコピーしてください。


コードを追加する(Google Colabの場合)


Google Colabを使っている方は、「blue_pencil-XL-LCM」と「sdxl_vae」を導入するコードを追加しましょう。


以下のコードでは、「blue_pencil-XL-LCM」のCheckpointモデルを使用できるコードになっているので、コピペして参考にしてください。

#blue_pencil-XL-LCM
!wget https://civitai.com/api/download/models/247022 -O /content/stable-diffusion-webui/models/Stable-diffusion/blue_pencil-XL-LCM.safetensors



以下のコードでは、「sdxl_vae」のVAEを使用できるコードになっています。

#sdxl_vae
!wget https://huggingface.co/stabilityai/sdxl-vae/resolve/main/sdxl_vae.safetensors?download=true -O /content/stable-diffusion-webui/models/VAE/sdxl_vae.safetensors



以下の画像のように、「blue_pencil-XL-LCM」と「sdxl_vae」のコードを追加したら

Stable Diffusion Web UIを起動してください。


「blue_pencil-XL-LCM」で画像生成する


Stable Diffusion Web UIを起動したら

最初に「sdxl_vae」のVAEを設定しましょう。


以下の手順に沿ってVAEを設定してください。

①「Settings」をクリックする
②左側にある「VAE」をクリックする
③「SD VAE」項目で「sdxl_vae.safetensors」を選択する
④「Apply settings」をクリックする

これでVAEの設定は完了です。


通常のCheckpointモデルから「blue_pencil-XL-LCM」のCheckpointモデルに変更した時、

または、VAEである「sdxl.vae」から別のVAEに変更しようとすると

必ずと言っていいほどエラーが発生するので、エラーが出た場合はStable Diffusion Web UIを再起動してください。



プロンプトとネガティブプロンプトに呪文を入力してください。



「blue_pencil-XL-LCM」のモデルでは

「Sampling method」の設定を、「DPM++ SDE Karras」「 DPM++ 2S a Karras」「Eular a」の3つの中から1つ選択してください。

他の「Sampling method」にするとクオリティが劣化します。

「DPM++ SDE Karras」が綺麗に生成されやすいのでおすすめです!

モデルによっては、最適な「Sampling method」が変わる場合があります。

CIVITAIの各モデル内にある説明文には、推奨している「Sampling method」が記載されている場合があるので、確認してみるといいです。



「Sampling steps」は「5」くらいに設定しましょう。



SDXLの標準画像サイズは、「縦:1024」「横:1024」以上なので「縦:1024」「横:1024」にしてください。

SDXLモデルは、「1023」以下ですとクオリティが劣化する可能性があります。



「CFG Scale」は「1〜2.5」に設定してください。

「blue_pencil-XL-LCM」モデルは、「CFG Scale」を「3」以上にすると逆にクオリティが劣化します。



「blue_pencil-XL-LCM」のモデルURLにある説明文でも、推奨値が記載されているので確認してみてください。



以下の画像では、LCMではない通常のCheckpointモデルを使用して「Sampling step」を「5」にして生成した結果と

LCMである「blue_pencil-XL-LCM」のCheckpointモデルを使用して「Sampling step」を「5」に設定して生成した比較結果になります。

LCMではない通常のCheckpointよりも、LCMの方では綺麗に生成することが出来ています。



以下の画像では、LCMではない通常のCheckpointモデルを使用して

「Sampling steps」の数値を「1〜5」まで生成した結果になります。

「5」まで綺麗な人物で画像生成することが出来ていません。



以下の画像では、LCMである「blue_pencil-XL-LCM」のCheckpointモデルを使用して

「Sampling steps」の数値を「1〜5」まで生成した結果になります。

こちらでは「3」から綺麗な人物で画像生成できています。

早い段階から綺麗に生成できていますね。


上記画像のように

LCMではない通常のCheckpointモデルと

LCMの「blue_pencil-XL-LCM」モデルを使って全く同じSampling stepsの数値で画像生成すると

生成時間は同じでしたが(生成時間は環境によって異なります)

「blue_pencil-XL-LCM」では、少ない「Sampling steps」の数値で綺麗に画像生成することが出来ています。



「Sampling steps」の数値は上げていくほど、生成までに時間がかかります。

LCMではない通常のCheckpointモデルで綺麗に画像生成しようとすると

「Sampling steps」の数値は「20」くらいに設定しないといけないので、その分時間がかかってしまいます。



ですから、例えば

LCMではない通常のCheckpointモデルで綺麗に生成する→Sampling Stepsを「20」にして約1分

LCMの「blue_pencil-XL-LCM」モデルで綺麗に生成する→Sampling Stepsを「5」にして約15秒

なので、その分高速生成することができます!

LCMの拡張機能を導入する


LCMを使って画像生成できる2つ目の方法として

拡張機能の「sd-webui-lcm」を使ったやり方があります。


「Extensions」をクリックしてから「Install from URL」をクリックしてください。



「URL for extension’s git repository」の項目内に

https://github.com/0xbitches/sd-webui-lcm.git」をコピペしてから

「Install」をクリックして、「sd-webui-lcm」をインストールしてください。



「Installed」をクリックしてから

「sd-webui-lcm」がインストールされているか確認してください。



「Settings」をクリックしてから

「Reload UI」をクリックして、Stable Diffusion Web UIを再起動してください。

これで「sd-webui-lcm」の導入は完了です!


LCMの使い方


新規で追加された「LCM」のタブをクリックしてください。



「LCM img2img」と「LCM vid2vid」はエラーが起きて使用することが出来ないようです。
(設定次第では可能かもしれません)



「LCM txt2img」をクリックしてから、プロンプト内に画像生成したい内容を入力してください。



「Run」をクリックすることで、8秒で4枚の画像を生成することが出来ます。

1回目の生成は時間がかかりますが、2回目以降からは生成が早くなります。



「Seed」項目では、Seedの数値が違うことで異なった画像生成結果にすることができます。

Seed値を固定して画像生成することで、全く同じ画像生成結果にすることが出来ます。



「Randomize seed across runs」にチェックを入れて画像生成すると

毎回Seed値をランダムにして画像生成します。

チェックを外すとSeed値を固定します。



「Run LCM in fp16 (for lower VRAM)」ではチェックを入れると、VRAMの消費を低くして早く画像生成します。

チェックを外すと時間が長くなります。



「Run LCM with torch.compile」にチェックを入れて画像生成すると

バグが発生して生成できないのでチェックは入れないでいいです。



「Run LCM on CPU」にチェックを入れて画像生成すると

生成までに非常に時間がかかるので入れないでいいです。



「Width」と「Height」では、画像サイズを設定することが出来ます。



「Guidance scale for base」では、「CFG Scale」と同じような役割だとは思いますが、比較してもあまりよく分かりませんでした。

「CFG Scale」では

数値を大きくすることで、プロンプト内容に従いやすくなり、シャープな印象で生成される傾向にあり

数値を小さくすることで、プロンプト内容に従いにくく、柔らかい印象で生成される傾向にあります。



以下の画像では、「Guidance scale for base」の数値を「2」「8」「14」で生成した比較結果になります。

少し画像結果が違っているので試行錯誤してみてください。



「Number of inference steps for base」では、ノイズ除去の回数になります。

数値が大きいほど、クオリティが向上しやすい傾向にあります。



以下の画像では、「Number of inference steps for base」の数値を「1」「4」「8」で生成した比較結果になります。

「1」では、ぼやけておりノイズ除去がしっかり出来ていません。
「8」では、ノイズ除去がしっかりされており、「1」よりもクオリティが向上しています。

「8」の数値に設定するとクオリティが高いのでおすすめです。



「Number of images (batch count)」では、1度に画像生成する枚数の設定になります。

最大100枚まで設定可能です。




生成AIを活用した副業をしてお金を稼ぎたいと悩んでいませんか?

以下のリンクでは生成AIを使った副業について教えています!

スキル不要・顔出し不要で、初心者でも簡単に1時間程度で出来る副業となっています。

気になった方は以下のリンクから内容の詳細をチェックしてみてください!

【10/6まで割引中!】
・【AI×占い】スキル・顔出し不要で初心者でも月10万稼ぐための収益化術!

・AI副業の全てが分かる教材を販売中!

まとめ


Stable Diffusionで画像生成を高速化できるLCMの使い方について解説しました。


LCMである「blue_pencil-XL-LCM」のCheckpointモデルを使用することで

LCMではない通常のCheckpointモデルよりも、小さいSampling stepsで綺麗に画像生成することが出来るので高速化できます。


「sd-webui-lcm」の拡張機能では、8秒で4枚の画像生成をすることが出来ます。


是非記事を参考にしてLCMを使用してみてください!


「SDXL Turbo」のモデルでも同様に高速生成することが出来ます。

以下の記事では、「SDXL Turbo」の使い方について解説しているので良ければ読んでみてください。

あわせて読みたい
SDXL Turboの使い方について解説 高速生成したい!SDXL Turboの使い方を教えて! SDXL Turboのモデルを使用することによって小さいSampling stepsの数値で綺麗に画像生成できるようになるので高速生成す...

画像生成AIで理想の画像生成をするまでに時間がかかってしまう方へ

すぐに理想的なポーズの画像生成をしたいと思いませんか?

以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。

●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。

詳細の内容についてはこちら!

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

【生成AI活用のご相談(無料)はこちら!↓】
https://ai-illust-kouryaku.com/?page_id=34881

・Youtubeでも生成AIの情報発信をしています
https://www.youtube.com/channel/UCp8-8yMZwdMvf4XkZlsgRWA

・ネットビジネスで7桁収益達成

・AIグラビア写真集で月5桁以上の収益達成
 
・日本AI美少女コンテスト入選
 
仕事の依頼に関しては以下からお願いします。
仕事以外に関することはご返信致しませんので予めご了承ください。
【連絡先】levelma1000@gmail.com


Note・Brain・Tipsで生成AI(AI副業など)の教材を販売しています↓

【Note】
https://note.com/levelma

【Brain】
https://brain-market.com/u/level

【Tips】
https://tips.jp/u/levelma

Stable Diffusionで高クオリティの画像生成ができる!

Stable Diffusionで高クオリティの画像生成が出来なくて悩んでいませんか?

以下のリンクにある内容を読むことで、
Stable Diffusionの導入方法から使い方まで全て網羅出来て
クオリティの高いAIイラストやAI美女を生成することが出来るようになります。

高クオリティで画像生成する方法が記載されているので、
手順を真似するだけで購入後からすぐに高クオリティの画像生成ができるようになります。

内容の詳細はこちら!

目次