Stable Diffusionでアニメーション動画ができる!AnimateDiffの使い方

当サイトはプロモーションを含みます。

手順を真似するだけで
すぐに高クオリティの画像生成ができる!
📖Stable Diffusionの導入から使い方まで全てを網羅できる初心者入門書!📖

Stable DiffusionでAIアニメーション動画を生成したい!
どうやって生成できるの?

アニメーション動画を生成するには、AnimateDiffと呼ばれる拡張機能とMotion moduleのモデルを導入して使用することで生成することが出来ます。

AnimateDiffは高クオリティでアニメ動画が作成できる可能性を秘めているのでここで是非使い方を覚えてみてください。

この記事では、AnimateDiffの使い方について詳しく解説します。


🟢ためになる最新のAIニュースをたったの月500円でお届けするサブスクリプションサービスを開始しました🟢

最新のトレンドを追いかけることは、仕事や日常生活に取り入れる上で、あなたに大きな有益性をもたらします。

ぜひこの機会に生成AIの全貌を理解する一助として、サブスクリプションにご加入ください。

最新の生成AIニュースを読む



\理想の画像生成をするまでに時間がかかってしまう方へ!/
【6/2まで割引中!】
【累計販売400部突破!】


すぐに理想的なポーズの画像生成をしたいと思いませんか?

以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。

●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。

詳細はこちら!
目次
AIグラビア・AIイラストでお金を稼ぐ方法
【累計販売100部突破!】

「AIグラビア・AIイラストを生成してお金を稼ぎたい」と思ったことはありませんか?


以下のリンクにある内容では、初月からお金を稼ぐ方法について知ることが出来ます。

【こんな人におすすめです!】
初月からお金を稼げた成果の実績を出したい
・画像生成してお金にならないことをするよりも、画像生成してお金を稼ぎたい
・副業で毎月の不労収入を得て今の生活よりも豊かにしたい

他の場所では書かれていない、AIグラビア・AIイラストでお金を稼ぐための全ての方法を詰め込んで解説しています。


内容の詳細はこちらから!

AnimateDiffで使用するCheckpointモデルを導入する

AnimateDiffで使うCheckpointモデルを決めましょう。

以下のAnimateDiffのサイトでは、動画のサンプルで使用したCheckpointのモデル名が表示されているので、それらを参考にしてCheckpointモデルを導入して使用するといいでしょう。

あわせて読みたい


今回の例では、AnimateDiffのサイトにあるサンプル動画で使用されたCheckpointモデルを参考にして、同じようにCivitAIにある「Counterfeit-V3.0」と「ToonYou」のモデルを導入します。

別のCheckpointモデルでも動画生成することは出来ますが、モデルによっては上手く生成できない可能性があります。


以下の「Counterfeit-V3.0」モデルのリンクにアクセスしてください。

あわせて読みたい
Counterfeit-V3.0 - v3.0 | Stable Diffusion Checkpoint | Civitai high quality anime style model. Support☕ https://ko-fi.com/sfa837348 more info. https://huggingface.co/gsdf/Counterfeit-V2.0 Verson2.5 https://hugg...

ローカル環境の場合

ローカル環境でStable Diffusion Web UIを使っている方は、右側にある「Download」ボタンをクリックすることでファイルをダウンロードすることが出来ます。

ファイルは「models/Stable-diffusion/」の中に入れてください。


次は「ToonYou」のモデルになります

以下のリンクにアクセスして同じようにダウンロードしてください。

あわせて読みたい
ToonYou - Beta 6 🌟 | Stable Diffusion Checkpoint | Civitai ToonYou - Beta 6 is up! Silly, stylish, and.. kind of cute? 😅 A bit of detail with a cartoony feel, it keeps getting better! With your support, Too...

Google Colabの場合

Google Colabの方はダウンロードURLが必要になります。

右側にある「Download」ボタンにマウスカーソルを合わせてから右クリックしてください。

Google Chromeの場合ですが、「リンクのアドレスをコピー」をクリックすることでダウンロードURLをコピー出来ます。


次は「ToonYou」のモデルになります

以下のリンクにアクセスしてください。

あわせて読みたい
ToonYou - Beta 6 🌟 | Stable Diffusion Checkpoint | Civitai ToonYou - Beta 6 is up! Silly, stylish, and.. kind of cute? 😅 A bit of detail with a cartoony feel, it keeps getting better! With your support, Too...


先ほどと全く同じように右側にある「Download」ボタンにマウスカーソルを合わせて右クリックしてからダウンロードURLをコピーしてください。

Google Colabでコードを追加する

Google Colabにアクセスして「Counterfeit-V3.0」と「ToonYou」のCheckpointモデルをコード内に追加しましょう。

Google Colabにアクセスしてください。

「ファイル」をクリックしてから「ノートブックを新規作成」を押してください。


「編集」をクリックしてから「ノートブックの設定」を押してください。


ハードウェアアクセラレータの項目で「GPU」を選択してから「保存」をクリックしてください。


ここから先ほどコピーしていたダウンロードURLを使って「Counterfeit-V3.0」と「ToonYou」のコードを追加します。



コピーしていたCounterfeitのダウンロードURLを、以下の赤字の部分にペーストすることで使用できます。

!wget (ダウンロードURL) -O /content/stable-diffusion-webui/models/Stable-diffusion/counterfeit-v30.safetensors


ペースト後は以下のようになります。

!wget https://civitai.com/api/download/models/57618 -O /content/stable-diffusion-webui/models/Stable-diffusion/counterfeit-v30.safetensors

この例に従って別のモデルのダウンロードURLを入れることでCheckpointモデルを導入することが出来ます。


以下の赤字の部分はモデルのファイル名を入力する場所であり、自由に名前を変更して良いのですが、この例では「Couterfeit」のモデルと分かるように同じ名前を入力しています。

!wget https://civitai.com/api/download/models/57618 -O /content/stable-diffusion-webui/models/Stable-diffusion/counterfeit-v30.safetensors


ToonYouモデルも上記と同様の手順でダウンロードURLを入れてください。

そして以下の画像のように、Google Colab内にコードを追加したら左上の実行ボタンを押してください。

コードが全く分からない人は、「Counterfeit-V3.0」と「ToonYou」のCheckpointモデルを追加してStable Diffusion Web UIを起動させるコードを以下に記載しているので、全てコピペして参考にしてください。

!pip install -q torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1+cu118 torchtext==0.15.1 torchdata==0.6.0 --extra-index-url https://download.pytorch.org/whl/cu118 -U

!pip install -q xformers==0.0.19 triton==2.0.0 -U

#automatic1111 stable diffusion web uiのダウンロード
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
%cd /content/stable-diffusion-webui

#Counterfeit-V3.0
!wget https://civitai.com/api/download/models/57618 -O /content/stable-diffusion-webui/models/Stable-diffusion/counterfeit-v30.safetensors

#toonyou
!wget https://civitai.com/api/download/models/125771 -O /content/stable-diffusion-webui/models/Stable-diffusion/toonyou.safetensors

#huggingfaceのサイトからvae-ft-mse-840000-ema-prunedのvaeをダウンロード
!wget https://huggingface.co/stabilityai/sd-vae-ft-mse-original/resolve/main/vae-ft-mse-840000-ema-pruned.safetensors -O /content/stable-diffusion-webui/models/VAE/vae-ft-mse-840000-ema-pruned.safetensors

#stable diffusion web uiの起動
!python launch.py --share --xformers --enable-insecure-extension-access


コードを実行して数十分後に、コードの一番下付近で「.gradio.live」と書かれたURLが表示されるので、クリックしてStable Diffusion Web UIを起動してください。

AnimateDiffを導入する方法

AnimateDiffの拡張機能を追加していきます。

以下の手順に沿って操作してください。

①「Extensions」をクリックする
②「Available」をクリックする
③「Load from:」ボタンを押す


検索内で「animatediff」と入力してください。

ゆっくり入力しないと表示されない場合があります。

「sd-webui-animatediff script, dropdown」の右側にある「Install」ボタンを押してAnimateDiffの拡張機能をインストールしてください。


「Installed」をクリックしてから「sd-webui-animatediff」がインストールされているか確認してください。


「Settings」をクリックしてから「Reload UI」ボタンを押してStable Diffusion Web UIを再起動してください。


再起動したら下にスクロールして「AnimateDiff」のタブが追加されていることを確認できたら導入完了です。

Motion moduleのモデルを追加する

AnimateDiffの拡張機能のみ導入しても動画生成することが出来ません。

AnimateDiffの右側にある逆三角形の部分をクリックして開いてから、「Motion module」項目の中をクリックしても何も入っていないので動画生成することが出来ません。

もう1つ「Motion module」で使用するモデルを追加する必要があります。


ここからはローカル環境を使用している方と、Google Colabを使用している方それぞれに分けて解説するので、環境に合わせて読んでみてください。

ローカル環境の場合

「Motion module」で使用するモデルは、以下のリンクからダウンロードできるのでアクセスしてください。

あわせて読みたい
guoyww/animatediff at main We’re on a journey to advance and democratize artificial intelligence through open source and open science.


「mm_sd_v14.ckpt」「mm_sd_v15.ckpt」「mm_sd_v15_v2.ckpt」のモデルをダウンロードしてください。

ファイルは「sd-webui-animatediff/model/」の中に入れてください。

Google Colabの場合

Google Colab内に戻ってから、左上のボタンを押してStable Diffusion Web UIの実行を停止させてください。


以下のリンクにアクセスしてから、2つの「Motion module」モデルのダウンロードURLを取得します。

あわせて読みたい
guoyww/animatediff at main We’re on a journey to advance and democratize artificial intelligence through open source and open science.


「Files and versions」をクリックしてください。

「mm_sd_14.ckpt」項目の右側にあるダウンロードアイコンにマウスカーソルを合わせてから右クリックしてください。


「リンクのアドレスをコピー」をクリックしてダウンロードURLをコピーしてから一旦メモ帳にペーストしてください。

「mm_sd_v15.ckpt」と「mm_sd_v15_v2.ckpt」も同様な手順でダウンロードURLをコピーしてください。

Google Colab内にコードを追加します。

Google Colabの左上にある「+コード」をクリックしてからコード内にモデルを追加していきます。



コピーしていた「mm_sd_v14.ckpt」のダウンロードURLを以下の赤太字の場所にペーストしてください。

!wget (ダウンロードURL) -O /content/stable-diffusion-webui/extensions/sd-webui-animatediff/model/mm_sd_v14.ckpt


ペースト後は以下のようになります。

!wget https://huggingface.co/guoyww/animatediff/resolve/main/mm_sd_v14.ckpt -O /content/stable-diffusion-webui/extensions/sd-webui-animatediff/model/mm_sd_v14.ckpt


「mm_sd_v15.ckpt」と「mm_sd_v15_v2.ckpt」も上記と同様の手順でペーストしてください。

ですが、ファイル名は「mm_sd_v15」と「mm_sd_v15_v2」に変更してください。

そうしないと同じファイル名で被ってしまい使用できません。


例として、ファイル名の変更後は以下の赤字部分のようになります。

!wget https://huggingface.co/guoyww/animatediff/resolve/main/mm_sd_v15.ckpt -O /content/stable-diffusion-webui/extensions/sd-webui-animatediff/model/mm_sd_v15.ckpt


以下の画像のように、コード内にモデルを追加してから再度左上にある実行ボタンを押してStable Diffusion Web UIを起動してください。

コードが分からない人は、以下のコードをコピペしてから再度起動してください。

#sd_v14
!wget https://huggingface.co/guoyww/animatediff/resolve/main/mm_sd_v14.ckpt -O /content/stable-diffusion-webui/extensions/sd-webui-animatediff/model/mm_sd_v14.ckpt

#sd_v15
!wget https://huggingface.co/guoyww/animatediff/resolve/main/mm_sd_v15.ckpt -O /content/stable-diffusion-webui/extensions/sd-webui-animatediff/model/mm_sd_v15.ckpt

#sd_v15_v2
!wget https://huggingface.co/guoyww/animatediff/resolve/main/mm_sd_v15_v2.ckpt?download=true -O /content/stable-diffusion-webui/extensions/sd-webui-animatediff/model/mm_sd_v15_v2.ckpt

#stable diffusion web uiの起動
!python launch.py --share --xformers --enable-insecure-extension-access

Stable Diffusionで高クオリティーの画像生成が出来なくて悩んでいませんか?


以下のリンクにある内容を読むことで、Stable Diffusionの導入方法から使い方まで全て網羅出来てクオリティーの高いAIイラストやAI美女を生成することが出来るようになります。


高クオリティーで画像生成する方法が記載されているので、手順を真似するだけで購入後からすぐに高クオリティーの画像生成ができるようになります。


内容の詳細はこちら!

AIアニメーション動画を生成する

プロンプトとネガティブプロンプト内に呪文を入力しましょう。

今回の例では、以下のプロンプトとネガティブプロンプトを入力しているので参考にしてみてください。

プロンプト

masterpiece , best quality , girl , smile , upper body

ネガティブプロンプト

worst quality , low quality , normal quality , lowres


下にスクロールしてからAnimateDiffのタブを開いてください。

「Motion module」内にモデルが追加されているので選択してください。

「Enable AnimateDiff」にチェックを入れてAnimateDiffを有効にしてから、右上にある「Generate」ボタンをクリックすることで動画を生成することが出来ます。


以下は生成した結果になります。

動画はgifファイルで生成されています。

\理想の画像生成をするまでに時間がかかってしまう方へ!/

すぐに理想的なポーズの画像生成をしたいと思いませんか?

以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。

●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。

詳細はこちら!

Motion moduleを比較検証

Motion module項目内では「mm_sd_v14」「mm_sd_v15」「mm_sd_v15_v2」があるのですが、アニメーション方法が変わるのでどちらも試してみるといいです。


以下の動画では「mm_sd_v14」「mm_sd_v15」「mm_sd_v15_v2」を比較した結果になります。

Seed値やプロンプト内容も全て同じにして「Motion module」の部分だけを変更しただけなのですが、このように違ったアニメーション動画が生成されます。

別のCheckpointモデルを使用した比較結果です。

フレーム数を変更する

「Number of frames」の数値を変更することで、生成する画像枚数を変更することが出来ます。

初期設定では「0」になっているのですが、何も数値を指定していないと16枚の画像生成がされてからアニメーション動画になります。


0.1秒で1枚のフレームになっています。

例えば「16」に設定した場合は「1.6秒」の長さのgif動画が生成されます。

最大の「24」設定では、生成時間が長くなりますが2.4秒で動画生成することが出来ます。


以下の画像では、Number of framesを「8」で設定した時の動画生成途中になります。

8枚の画像生成をしていることが確認できます。


以下は生成した結果になります。

0.8秒なので終了するのが早いです。


次はNumber of framesを初期設定の「16」で設定した時になります。

16枚の画像生成がされています。


以下は動画生成した結果であり、1.6秒の長さで生成されています。


最後はNumber of framesを最大の「24」で設定した時になります。


以下の動画は生成した結果です。

24フレームになると荒れた動き方になって1枚1枚の画像に統一感がなくなりました。

「8〜16」フレームで生成すると荒れにくく自然な仕上がりになりやすいのでおすすめです。

FPSを変更する

FPSでは数値を変更しても何も変化がなかったので初期設定の「8」で良いと思います。


以下の動画は、FPS設定を「8」「16」「24」で生成した結果になります。

こちらのように1フレームずつ見比べても何も変わっていませんでしたので、そのままの設定数値でいいと思います。

ループ回数を変更する

「Display loop number」の項目ではgif動画のループ回数を設定することが出来ます。

「0」に設定すると無限にループします。

「1」以上に設定すると数値に応じたループ回数をした後に動画が終了します。

エラがー起きる画像サイズ

画像サイズの設定であるWidthとHeightでは、以下の設定にすることで動画生成可能でした。

・「Width:512,Height:512」
・「Width:512,Height:768」
・「Width:512,Height:1024」
・「Width:768,Height:1024」



ですが、「Width:1024,Height:1024」にする、またはHires.fixで生成しようとすると、Google Colabを使っている方なら以下の画像のようにメモリに関するエラーが起きて生成することが出来ない可能性があります。

一度エラーが起きた後に「Generate」ボタンを押して生成すると、ノイズのような画像だけ生成されてしまう場合があるので、一旦Google Colabを停止させてから再起動して使用するようにしましょう。



🟢ためになる最新のAIニュースをたったの月500円でお届けするサブスクリプションサービスを開始しました🟢

最新のトレンドを追いかけることは、仕事や日常生活に取り入れる上で、あなたに大きな有益性をもたらします。

ぜひこの機会に生成AIの全貌を理解する一助として、サブスクリプションにご加入ください。

最新の生成AIニュースを読む



🟢画像生成AIで理想の画像生成をするまでに時間がかかってしまう方へ🟢


すぐに理想的なポーズの画像生成をしたいと思いませんか?


以下のリンクにある内容では、イメージしていた画像生成が出来るまでの時間を大幅に減らすことが出来ます。


●こんな人におすすめです!●
・理想的なポーズの画像生成に困っている
・ポーズのバリエーションを増やしたい
・高クオリティーの画像生成をしたい
・コピペだけで簡単に画像生成したい
・可愛いAI美女、AIグラビアの画像生成に困っている

他にはない呪文内容などが豊富にあり参考にできるので困ることはありません。


【6/2まで割引中!】


詳細の内容についてはこちら!

まとめ

以上でAnimateDiffの使い方について解説しました。

Stable DiffusionでAnimateDiffを使用する場合は、AnimateDiffの拡張機能とMotion moduleのモデルを導入することでアニメーション動画を生成することが出来ます。

今後はさらにクオリティの高いアニメーション動画を生成できる可能性を感じますね。

ぜひ参考にしてアニメーション動画を生成してみてください。

他にもAIアニメーション動画を生成したい人におすすめなのが、「Gen-2」と「Pika Labs」になります。

以下の記事では、「Gen-2」と「Pika Labs」の使い方について解説しているので読んでみてください。

あわせて読みたい
イラストからAIアニメーションを自動生成できる!Gen-2の使い方 イラストを使ってAIアニメーションを自動生成したい!Gen-2の使い方を教えて! 「Gen-2」では、テキストから動画生成をしたりアップロードした画像から動画生成すること...
あわせて読みたい
【無料の動画生成AI】Pikaの使い方について解説 無料でテキストから動画生成AIを使いたい!AIイラストや写真から動画作成をしたい!Pikaの使い方を教えて! テキストから動画作成・AIアニメーションを生成したい人は「...

Stable Diffusionで高クオリティの画像生成ができる!

Stable Diffusionで高クオリティの画像生成が出来なくて悩んでいませんか?

以下のリンクにある内容を読むことで、
Stable Diffusionの導入方法から使い方まで全て網羅出来て
クオリティの高いAIイラストやAI美女を生成することが出来るようになります。

高クオリティで画像生成する方法が記載されているので、
手順を真似するだけで購入後からすぐに高クオリティの画像生成ができるようになります。

内容の詳細はこちら!

AIグラビア・AIイラストでお金を稼ぐ方法【累計販売100部突破!】

「AIグラビア、AIイラストを生成してお金を稼ぎたい」と思ったことはありませんか?

以下のリンクにある内容では、初月からお金を稼ぐ方法について知ることが出来ます。

【こんな人におすすめです!】
初月からお金を稼げた成果の実績を出したい
・画像生成してお金にならないことをするよりも、画像生成してお金を稼ぎたい
・副業で毎月の不労収入を得て今の生活よりも豊かにしたい

他の場所では書かれていない、AIグラビア・AIイラストでお金を稼ぐための全ての方法を詰め込んで解説しています。

内容の詳細はこちらから!

 

AIイラストからVTuberモデルを作成してお金を稼ぐ方法

AIイラストからVTubeモデルを作成してお金を稼ぎたいと思いませんか?

以下の内容を読むことで、AIイラストからVTubeモデルを作成するスキルを身につけることが出来るので販売や受注を行えるようになります。

販売や受注以外にも以下のことが出来るようになります。

・自分でVTubeモデルを作成してYouTubeなどで活動する
・作成したモデルを動画作品内でアニメーションさせる
・宣伝、SNS等で活用

内容の詳細こちら!

 

\初心者でも5分で高クオリティの画像生成が出来る!/
SeaArtの使い方入門書

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

【経歴・実績】

・画像生成AI歴1年以上

・AIグラビア写真集を数十冊以上出版して月5桁以上の収益達成
【5万円以上の収益!AIグラビア・AIイラストでお金を稼ぐ方法】を販売中
https://note.com/levelma/n/n1c9878233615
 
・上原亜衣コラボAI写真集の発売
kindle unlimited会員なら無料で読めます!
https://amzn.to/3uCvynw
 
・日本AI美少女コンテスト入選
 
・画像生成AIを活用したVTuberモデルを販売
https://levelma100.booth.pm/

・Youtubeで生成AIの情報発信
https://www.youtube.com/channel/UCp8-8yMZwdMvf4XkZlsgRWA
 
仕事の依頼に関しては以下からお願いします。
仕事以外に関することはご返信致しませんので予めご了承ください。
連絡先:levelma1000@gmail.com

\VTuber・動画作品・宣伝等に使えるキャラクターモデルを販売中!【1,980円〜】
詳しくはこちら!
目次