- すべて
- 画像・動画
並べ替え:新着順
【LivePortraitで配信】 OBSを使用してのライブ配信のデモ。VTuberの一つのシステムとして利用される日も近いかもしれない。 ルックが自由になるとすると、さらに世界は広がっていきそう。 THX:@toyxyz3 #AI #LivePortrait x.com/toyxyz3/status…
LivePortrait real time capture OBS live test #stablediffusion #AIイラスト #AI #ComfyUI pic.twitter.com/4Q2b1bmCOT
#livePortrait がより使いやすくなってるな。 #OBS Studioを組み合わせると、こんなような生配信が可能になりそう。Vtuber的に使えるようになる日も近いかも!! #comfyUI pic.twitter.com/pSEmR232pF x.com/Kijaidesign/st…
Managed to get LivePortait running near realtime within ComfyUI, now also without Insightface, using Google's MediaPipe (Apache-2.0 license) instead! github.com/kijai/ComfyUI-… pic.twitter.com/eTZyT83thl
おはよ。 暑かったけどよく寝れた? そろそろ起きないとねー。 って、バスルーム。(では言わないか。。) Talking Photo #Seaat で作成した画像を #liveportrait しています。 #妄想彼女 pic.twitter.com/UAxXOXt7cv
Live Portrait v2v版をComfyUIで動かしてみた Luma AIで作成した動画に表情を付けたけど扇子で顔の一部が隠れていてもちゃんと処理できててスゴイ! ただ1フレームの処理に30秒程(RTX3060)必要で30fps4秒の動画に1時間以上かかりました😅 #aivideo #liveportrait #LumaDreamMachine pic.twitter.com/k4xyE76GFh
[:D :D :D] #LivePortrait は3DCG系はいけるがアニメは厳しい 3DCGからアニメにコンバートするかなー😅 #ai #suno ↓フル版 pic.twitter.com/X4EspOaYLC
LivePortraitでVid2Vid(ビデオから)動かせるよ。 激しめの表情は崩れちゃいます。 ゆっくりな表情なら崩れにくいかもです。 ここからデモできます。 huggingface.co/spaces/fffilon… #LivePortrait #StableDiffusion pic.twitter.com/A45o3ccYkG
とうとう出ました、リアルタイムのLivePortrait!! webcamの性能が悪いのか、結果はいまいちだったが、何かと可能性を感じるな。 とりあえず、表情差分画像はこれがあればどうにでもなりそうじゃな。 #ai動画 #deepfake #liveportrait pic.twitter.com/UV9MfmJDoo x.com/op7418/status/…
Live_Portrait_Monitor 另一个支持实时渲染的 Live Portrait项目。 支持直接从摄像头获取的表情视频迁移到对应图片上变成新的视频。 可以直接用来直播。 github.com/Mrkomiljon/Liv… pic.twitter.com/2SHQWmoQDG
話題のLivePortrait を huggingface でやってみました。 アニメも実写も動画から切り出した画像でも動かせ雰囲気もかなり良い #LivePortrait pic.twitter.com/GIixKBuAEN
LivePortraitがアップデートで正式にV2Vに対応しましたね😆 また、加速化オプションを使えばCUDAで20~30%高速化される様です💡 #LivePortrait pic.twitter.com/ysux5ce4X9
ラーメンを食べる柴犬動画の表情を動かしてみた。InsightFaceからMediaPipe Face Meshに雑に書き換えたのでトラッキングがガタついてるけど。 #liveportrait #LumaDreamMachine pic.twitter.com/Deb2l5Xqvc
「この指、人間には不可能らしいよ」 ドヤッ✨️ #LivePortrait #DreamMachine #stablediffusion pinkiepie pony mix pic.twitter.com/PKmrwkexv0
3Dで3面図だけ作ると良くなりそうな。 と言う事はAIで3面図作ればいいだけのような。 となると、3面図特化AIがあれば、、どのようなキャラも動かせそう となれば、、、 いやちがう。xRで使うなら2Dじゃなくて3Dだから3Dはいるか #liveportrait
これは完全にっゲームチェンジャーだね~~~~こうなると今後の方針が転換されるね~~~~~でもしたい表現が簡単に実装できるようになりそうだからこっちの方がいいね #liveportrait
ローカル環境でLiveportraitを導入、すぐ使えて時代の流れを感じました正直3DCG~VRM~モーキャプの世界とはある意味対岸の技術かな 新しい技術のはずなのに昔のものに感じてしまう 3DCGを自力で作り動かせると物足りない感じがするけど面白かった 動画の男性と絵は同梱ファイルです #liveportrait pic.twitter.com/N3HbbaBhl6
LivePortraitヤバすぎ!動物やロボットまで表情をリンクさせられるって、汎用性エグい🤖🦁 #LivePortrait x.com/daisu_creator/…
表情を生成してくれる「LivePortrait」を色んな画像で試してみました。 色々やって気付いた点をまとめます。 ・表情はめちゃめちゃ精度よく動いてくれる ・参考動画の顔の動きが激しくなるほど崩れやすい ・人じゃない画像でもある程度はいける… pic.twitter.com/lAILgFaqQQ
ここんとこ話題になってる #liveportrait 、依存してるInsightFaceのコードはMITライセンスだけど、トレーニング済みのモデルデータは非商用限定だった。商用っぽい利用見かけたけど大丈夫かな。
#LivePortrait のv2v。LumaAIで作成した動画とサンプル動画と合わせたもの。少しスローなのは、5秒を50フレにしているため。多分フレーム数をもっと増やすと滑らかになると思う。ただ、1コマ1コマ計算するので、時間はかなりかかる。 pic.twitter.com/SU2Lbzq4Zi
#LivePortrait のv2v。LumaAIで作成した動画とサンプル動画と合わせたもの。少しスローなのは、5秒を50フレにしているため。多分フレーム数をもっと増やすと滑らかになる。ただ、1コマ1コマ計算するので、時間はかなりかかる。 pic.twitter.com/GzzQqOGhgT
複数画像が可能らしいので試した所、TensorRT処理でも20倍程度(人数分の処理?)の時間が掛かりました💦 #LivePortrait #FasterLivePortrait pic.twitter.com/my6xdsKOkd