play_arrow

※ 広告を×ボタンで閉じて再生ボタンを押した後、リンク先で再生可能です。

※ スマホで動画が重い方は、リンク先の「ダウンロード」から「360p」を選択すると少し軽くなる可能性があります。

【MMD x StableDiffusion】酔いどれ知らず

  • calendar_month
    2023-03-22
    20:27
  • remove_red_eye
    97
    回視聴
  • favorite
    93
    いいね
add
お気に入り登録

作者コメント:

【アークナイツ / 水着グム】酔いどれ知らず前に作った動画をAI用に調整して流し込む\nhttps://www.youtube.com/watch?v=nF4apEyu7a4・動画としての同一性を保つために生成画像を元の画像とブレンドしているので元の画像からの大きな変更が難しい\n・アルファで輪郭を制限しているので質感の調整以外に使いにくい\n・結局は同じパラメーターでi2iしているだけなので元の画像が被写体に近いか遠いかでAIの描画強度が変化してしまう(顔が遠いとAIが読み込むピクセル情報が少なくてAI側の描画が強くなって、顔が近いと読み込むピクセル情報が多いので元の画像に近い結果になる)\n・そもそも今のAIは小さいサイズの顔を安定して出してくれない\n・動画用にモデルの調整/学習を行っていないので目や色味等は安定しているが前髪や髪飾り等の安定していない部分がジラ付きがち(これは学習なりでかなり改善するはず)\n・今回使用したモデルが自分の好きなフラット(スケッチ系)なモデル/プロンプトをそのまま使っているのでリアル系や色の変化もっと変化の大きいモデルを利用したほうが変化が大きいはず(これは単純に自分の好み)\n・レンダリング時間がそこそこ(1枚10秒程度が4000枚で12時間ぐらい)\n・出力画像のサイズが限られる(今回は640x960でi2iして後からwaifu-2xcaffeで2倍に拡大)\n・BBからのアルファ抜きが甘い(これはただの確認不足)やっている事としてはアルファの上でi2iとControlNetのCannyを使って元の画像に出来るだけ近いAIの描画をしてもらった後にさらに元の画像とブレンドしてるだけではあるので新しい事は何もしてないけどこういう事もできるんだなぁ程度にMMD側のクレジット等は以前の動画をどうぞ\nvideo : 1280x1920 / 30fps / 249MB / 02:16あと誰かこのサイトの段落以外での改行の方法を教えてください
この動画を見る