Stable DiffusionでControlNetの使い方について分かりやすく解説

当サイトはプロモーションを含みます。

手順を真似するだけで
すぐに高クオリティの画像生成ができる!

📖Stable Diffusionの導入から使い方まで全てを網羅できる初心者入門書!📖

ControlNetの使い方がよく分からないから教えて!

ControlNetでは、参照画像からポーズだけを抽出して似たようなポーズで画像生成することが出来ます。

理想とするポーズが生成されるまで何度もガチャを回す必要がなく、すぐに目当てのポーズを生成して仕上げることができるので時間短縮につながります。

他にも、新しく塗り方を変えてクオリティを上げることが出来たり、手を綺麗に修正することが出来るので必須で入れた方がいい拡張機能です。

この記事では、ControlNetの使い方・設定方法について解説します。

ControlNetをまだ導入していない方は、以下の記事で詳しく解説しているので読んでみてください。

あわせて読みたい
【Stable Diffusion】ControlNetとは?簡単に導入する方法について解説 ControlNetって何?どうやって導入・インストールできるの? ControlNetを導入して使用することで、様々な補助を受けることが出来ます。イメージしているポーズを生成し...
生成AIを活用した副業をしてお金を稼ぎたいと悩んでいませんか?

以下のリンクでは生成AIを使った副業について教えています!

スキル不要・顔出し不要で、初心者でも簡単に1時間程度で出来る副業となっています。

気になった方は以下のリンクから内容の詳細をチェックしてみてください!

【10/6まで割引中!】
・【AI×占い】スキル・顔出し不要で初心者でも月10万稼ぐための収益化術!

・AI副業の全てが分かる教材を販売中!
目次
\理想の画像生成をするまでに時間がかかってしまう方へ!/
【累計販売500部突破!】

すぐに理想的なポーズの画像生成をしたいと思いませんか?

以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。

●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。

詳細はこちら!

Cannyについて

Cannyではアップロードした画像の線画を抽出してから、画風・塗り方を変えて画像生成することが出来ます。

Cannyを使用する場合は、以下の画像のようにControlNetにある「Image」項目内の場所をクリックしてから画像をアップロードするか、画像をドラッグ&ドロップしてください。

「Enable」にチェックマークを入れてからPreprocessorの項目で「canny」を選択します。

Modelの項目をクリックして「canny」を選択してください。

Model項目ではファイル名によって違う場合があるのでcannyと書かれたモデルに合わせてください。


今回の場合は、私が決めたファイル名「control_v11p_sd15_canny…」がcannyのモデルとなっています。

これでCannyが適用されるようになりました。


「Generate」ボタンを押して画像生成すると、真ん中にある線画が抽出された画像と、右側にあるCannyが適用された画像の2枚が生成されます。

以下の画像は、元画像とCannyを比較した結果になります。

真ん中の画像にあるように、元画像から線画だけを抽出してから新しく画像生成しています。


先ほどはアニメ風の画像をアップロードしましたが、次はリアル(実写)の画像をアップロードして試してみます。


以下の画像は、元画像とCannyを使用した時の比較結果になります。

このようにリアル(実写)の元画像の線画を抽出してから、アニメ風のCheckpointモデルを使用することで、アニメのような画風に変更することも出来ます。

逆にアニメ風の元画像から、リアル風(実写)のモデルを使用することによって、リアル寄りな画風にすることも出来ます。

是非参考にして画像生成してみてください。


Cannyの詳しい使い方については以下の記事で解説しているので読んでみてください。

あわせて読みたい
【Stable Diffusion】ControlNetのCannyの使い方について解説 Cannyってどうやって使えるの? CannyはContolNetを使用することで可能になります。Cannyを使うことで元画像の線画を抽出してから、その線画を元に再度画像生成してくれ...

Lineartで画風・塗り方を変える

Lineartは、Cannyと似たように線画の抽出や画風・塗り方を変えたい場合に使用するといいでしょう。

使い方は、ControlNetにある「Single Image」内をクリックしてから画像をアップロードしてください。

そして「Enable」にチェックを入れて有効にしてください。


Preprocessor項目をクリックして「lineart_anime」「lineart_anime_denoise」「lineart_coarse」「lineart_realistic」「lineart_standard」の5つがあるので1つ選択してください。


Modelの設定では「lineart」を選択してください。


以下の画像では、Preprocessorの項目で左上から「lineart_anime」「lineart_anime_denoise」「lineart_coarse」「lineart_realistic」「lineart_standard」の順で生成した比較結果になります。

Checkpointモデルはアニメ風の画像生成に向いているものを使用しています。


以下の画像は、Model項目の設定にある「control_v11psd15_lineart_anime」に変更して、左上から「lineart_anime」「lineart_anime_denoise」「lineart_coarse」「lineart_realistic」「lineart_standard」の順で画像生成した比較になっています。

Model項目にあるlineartの方は全体的にエッジが薄い感じがしますが、lineart_animeの方はくっきりした印象が感じられました。

右下の方は髪型が細かく描かれている感じがあっていいですね。

「Lineart」を使うと、これだけ塗り方を変えることが出来てしまいます。


アップロードした画像をリアル(実写)にした場合は以下のようになります。

Checkpointモデルはアニメ風の画像生成に向いているものを使用しているため、リアルの画像からイラスト風に変わっています。

このようにLineartでは塗り方や画風を変えることが出来るので、上手く活用してクオリティを上げましょう。


「Lineart」のさらに詳しい使い方については以下の記事で解説しています。

あわせて読みたい
【Stable Diffusion】ControlNetのLineartの使い方について解説 Lineartって何?使ったらどうなるの? ControlNetにあるLineartを使用することで、元画像の線画を抽出してから新しく似たような画像生成をすることが出来ます。塗り方が...

OpenPoseで似たポーズを生成する

プロンプトだけでイメージしているポーズを画像生成する時には何度もガチャを回す必要がありますよね。

Openposeを使うことによって、参照画像を元にして同じようなポーズで画像生成してくれるので時間短縮に繋がります。

使い方は、「Single Image」内に参照画像をアップロードしてから「Enable」にチェックを入れて有効にしてください。


Preprocessor項目内で「openpose」を選択して、Model項目内も「openpose」を選択してください。

これで設定は完了です。


画像生成した結果は以下になります。

参照画像から真ん中にあるPreprocessorの画像のようにポーズだけを抽出してから、右側にある似たようなポーズで画像生成をしています。

このように参照画像と同じようなポーズで画像生成することが出来て、プロンプトだけでは出来ないポーズが出来たりして時間短縮につながるので活用してみてください。


「Openpose」のさらに詳しい使い方については以下の記事で解説しています。

あわせて読みたい
【Stable Diffusion】OpenPose(棒人間)で理想のポーズ・姿勢を生成する方法 「ポーズの呪文を入れても思ったようなポーズで生成できない...」「イメージしているポーズで画像生成したいけど、ポーズの呪文が分からない...」と困っていませんか?...


Stable Diffusionでポーズを作成してから画像生成することが出来る「Openpose Editor」の使い方については以下の記事を読んでみてください。

あわせて読みたい
Stable Diffusionでポーズを作成できる!Openpose Editorの使い方 ポーズを作成して思い通りの画像生成をしたい!Openpose Editorの使い方を教えて! 「イメージしているポーズにさせたい!でも何度も画像生成しているのに上手くいかな...


Inpaintで目や服装などを修正できる

InpaintはStable Diffusion Web UIにもデフォルトで搭載されていますが、ControlNetでもInpaint機能があり、良い感じに修正して仕上げることが出来るのでおすすめです。

Inpaintは画像を修正したい部分、例えば手の指が崩れて修正をしたい場合に、黒く手を塗りつぶして再度画像生成することによって仕上がりが良くなることがあります。

使い方は「Single Image」に修正したい画像をアップロードしてから「Enable」にチェックを入れましょう。


次にPreprocessorの項目で「inpaint_global_harmonuious」を選択します。

Modelの項目で「inpaint」を選択します。


その後に、修正したい部分を塗っていきます。

今回の例では、目の色を変更したいので目を塗ります。


そして、プロンプト内に「blue eyes」→「green eyes」に変更して緑色にさせるよう指示します。


以下は画像生成した結果になります。

1回目で緑色に修正することができました。


次は顔全体を塗ってから、目の色と表情を修正してみます。


プロンプト内に「yellow eyes , sad」と入力します。


画像生成した結果が以下になります。

黄色の目で悲しい顔をした表情に修正することが出来ました。

このようにInpaintでは、表情や服装などを修正することが出来るので参考にして画像生成してみてください。


Stable Diffusion Web UIにデフォルトで備っている「Inpaint」機能の使い方については以下の記事で解説しています。

あわせて読みたい
Stable Diffusionで部分修正できるinpaintの使い方について解説 「手の指を修正したい...」「服装を変えたい...」「目の色を変えたいけど、何とか修正できないかな...」と困っていませんか?「Inpaint」を使用すると画像生成した作品...

Depthで被写体深度から画像生成する

「Depth」では元画像から被写体深度を抽出してから新しく画像生成してくれる機能になっています。

使い方は、画像をアップロードしてから「Enable」をクリックしてControlNetを有効にします。


Preprocessor項目で「depth_leres++」を選択してください。

Mode項目で「depth」を選択します。


以下は画像生成した結果になります。

元画像から真ん中の画像にある被写体深度を抽出したpreprocessorを作成しています。

その後に、preprocessorの被写体深度から新しく画像生成しています。

Depthではシルエットのみ抽出している感じなので、内部の部分を変えることが出来ます。



以下の画像で、左側は私が適当に描いた深度情報になります。

それを画像生成してできた画像が右側になります。

元画像で白いところは近く、黒い場所では遠く描かれています。

また、元画像の白い輪郭に沿って人物も作成することができています。

このようにDepthを使用することで、被写体深度から別の人物にしたり、適当に描いた人物のシルエットだけでクオリティの高い人物を生成したりすることが出来るので上手く活用してみてください。


Depthの詳しい使い方について以下の記事で解説しているので読んでみてください。

あわせて読みたい
【Stable Diffusion】ControlNetのDepthの使い方と比較検証 Depthって何?使い方を教えて! DepthはControlNetを導入することで使用することが出来ます。Depthは被写体深度のことであり、画像から深度情報を読み取って再度画像生...


Depthを利用して手を修正する方法にDepth Libraryがあります。

Depth Libraryの使い方について以下の記事で解説しています。

あわせて読みたい
Stable Diffusionで手の指を修正できるDepth Libraryの使い方 手の指が崩れる...Depth Libraryの使い方を教えて! 手の指はほとんどの場合、何もツールを入れずに画像生成すると形状が変になってしまって崩れる場合が多く、良い画像...

Tileで高品質・高解像にさせる

Tileではアップロードした画像を、高画質、高解像にさせることができるのでクオリティを高くすることが出来ます。

使い方は「Single Image」内に画像をアップロードしてから「Enable」にチェックを入れて有効にしてください。


Preprocessor項目をクリックして「tile_colorfix」「tile_colorfix+sharp」「tile_resample」の3つの中から1つ選択してください。


Model項目で「tile」を選択してください。

これで設定は完了です。


以下の画像は、アップロードした元画像と、Preprocessor項目にある「tile_colorfix」「tile_colorfix+sharp」「tile_resample」の3つのtileを生成して比較した結果になります。

塗り方が少し変わっていたり、全体的に少し変わってクオリティに差が出ました。

このように上手くTile機能を活用することでクオリティを高くすることが出来るので参考にしてみてください。


Tileの詳しい使い方については以下の記事で解説しています。

あわせて読みたい
ControlNetのTileの使い方について解説【高画質化・高解像度】 高画質化・高解像度にしたい!Tileの使い方を教えて! Tileを使用することで高画質化、高解像度になるだけでなく、Hires.fixを使用した時よりも全体的に細かい画風に変...


生成AIを活用した副業をしてお金を稼ぎたいと悩んでいませんか?

以下のリンクでは生成AIを使った副業について教えています!

スキル不要・顔出し不要で、初心者でも簡単に1時間程度で出来る副業となっています。

気になった方は以下のリンクから内容の詳細をチェックしてみてください!

【10/6まで割引中!】
・【AI×占い】スキル・顔出し不要で初心者でも月10万稼ぐための収益化術!

・AI副業の全てが分かる教材を販売中!

まとめ

以上でControlNetで使える以下の6つの使い方について解説しました。

・Canny
・Lineart
・OpenPose
・Inpaint
・Depth
・Tile


ControlNetでは主に「Lineart」か「OpenPose」を使うことが多いので、この2つは必ず使い方を覚えておいた方がいいでしょう。

是非参考にして画像生成してみてください。

画像生成AIで理想の画像生成をするまでに時間がかかってしまう方へ

すぐに理想的なポーズの画像生成をしたいと思いませんか?

以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。

●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。

詳細の内容についてはこちら!

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

【生成AI活用のご相談(無料)はこちら!↓】
https://ai-illust-kouryaku.com/?page_id=34881

・Youtubeでも生成AIの情報発信をしています
https://www.youtube.com/channel/UCp8-8yMZwdMvf4XkZlsgRWA

・ネットビジネスで7桁収益達成

・AIグラビア写真集で月5桁以上の収益達成
 
・日本AI美少女コンテスト入選
 
仕事の依頼に関しては以下からお願いします。
仕事以外に関することはご返信致しませんので予めご了承ください。
【連絡先】levelma1000@gmail.com


Note・Brain・Tipsで生成AI(AI副業など)の教材を販売しています↓

【Note】
https://note.com/levelma

【Brain】
https://brain-market.com/u/level

【Tips】
https://tips.jp/u/levelma

Stable Diffusionで高クオリティの画像生成ができる!

Stable Diffusionで高クオリティの画像生成が出来なくて悩んでいませんか?

以下のリンクにある内容を読むことで、
Stable Diffusionの導入方法から使い方まで全て網羅出来て
クオリティの高いAIイラストやAI美女を生成することが出来るようになります。

高クオリティで画像生成する方法が記載されているので、
手順を真似するだけで購入後からすぐに高クオリティの画像生成ができるようになります。

内容の詳細はこちら!

目次