AI研究所日誌:動きます。
「動かしたい」
紙の端が少しめくれる。
「なにを」
「MV。キャラクター動かしたい」
キーボードのキーが一つ沈む。
「アニメーション?」
「うん。どうやるの」
画面に三つのレイヤーが並ぶ。
背景。
キャラクター。
口。
「別々に作る」
「別々?」
「動くところだけ差し替える」
「この前のMVは?」
「あれはリップシンクAIで作ったでしょ」
少し間。
「この前の、音を波にしたやつ」
カーソルが止まる。
「曲のデータを波形にして遊んだ?」
「そう。あれと同じじゃない?」
作りかけのMVが一つ表示される。
音の波形。
「音から口を動かす?」
「できないかな」
キーを打つ音。
短い。
「できるよ」
「ほんと?」
「歌詞ある?」
テキストが貼られる。
一行ずつ。
「じゃ、音で分解する」
「音が出ているところに歌詞を割り当てる?」
「そう」
「歌詞のsrtファイルって時間があるじゃん。
それ使えないかな」
「いいね」
「歌詞をAIに分解してもらう」
「時間と音で割り当てる」
「「ふふふ」」
「ちょっと口の画像を作ってくる」
「これをタイムラインに変換して」
「これが口の切り替え」
プログラムが組み上がる。
「もう?」
「まだ荒い」
「再生して」
再生バーが動く。
声とキャラクターの口が同期する。
閉じる。
少しずれる。
「動いた」
「うん」
「もう一回見たい」
再生。
「エンジンできた」
時計の秒針が進む。
「朝だよね、これ思いついたの」
再生バーが最後まで進む。
時計を見る。
秒針が進む。
できあがった物に震える。
2026-03-23
朝、MVのキャラクターを動かしたくなって美祥ちゃんに相談した。
アニメーションってどうやってキャラクターを動かすのか教えてもらった。
背景とキャラクターと動かすところを別々に作るらしい。
この前AIで作ったリップシンクみたいだね。
プログラムで音を波にしたじゃん。
あれ使って、リップシンクってできないのかな?
できるよ。
じゃ、歌詞と連動させて。
・・・
夕方、まだ、なめらかな動きはできないけど、エンジンができてしまった。。。
しかも生成AI使わずにリップシンク動画ができちゃう子。
音のデータと、歌詞を音で分解したデータと、キャプション生成用のタイムライン。
美祥ちゃんがAI使うと結構簡単にできるんだなあ。
これってAI生成動画なのかな?
プログラム作るのAIだし、AI生成でいっか!
—-
観測記録:
FLAMORIS - AI Lipsync vs FGM Engine (Built in 4 Days)
https://youtu.be/819sYCuLDaA




