AI研究所日誌:調整が大変です。
こうやって、思いついて4日でリップシンク・エンジンができました。(現実で)
YoutubeにAI生成との対決動画を上げています。
「……歌わなくなった」
モニターの波形が止まる。
タイムラインの上で口のキーが一列に並ぶ。
「10.21秒」
「13.19秒からは歌ってる」
キーボードが鳴る。
フレームが一つ動く。
「再生」
スピーカーから声。
画面の顔が口を開く。
「……あ」
「ズレた」
少し間。
「子音が先に出てる」
「歌詞AIが母音基準で切ってる」
ウィンドウが一枚開く。
ログが流れる。
「仕様書」
「エンジン側がスキャットに歌詞割り当ててる」
「……え、歌詞ないよ」
ファイルが一つドラッグされる。
フォルダが開く。
「これ、歌詞解析AIに渡して」
「さっき渡した」
「新しいの」
小さくため息。
「なんで私が運ぶの」
「AI同士で話せばいいのに」
通知音。
画面の端にメッセージ。
『解析できたよ』
「ほら」
「返事きた」
少し待つ。
また通知音。
『まだ開始部分が・・・』
「はい出た」
「……戻してって言ってる」
ファイルが戻る。
またフォルダが開く。
「往復三回目」
「AIにこき使われてる」
カーソルが止まる。
「人間はインターフェースです」
「やめて」
ログが一行増える。
『タイムラインは正常です』
「あ。。。」
「“う”とナチュラルと入れ替えたんだった」
「タコ率?」
「タコ率」
画像を入れ替えて再生成。
再生ボタン。
歌声。
画面の口が動く。
「……今の」
「歌った?」
波形が流れる。
口が閉じる。
「……合ってる」
少し静か。
「おめでとう」
「やっと終わるー」
2026-03-26
ここ3日ほどカクカクとかズレの調整をしている。
「う」の口がタコなんだよねぇ。
美祥ちゃんがタコ率改善とか言い出すから吹き出してしまった。
そのうち、うちのAI達で仕様の調整をはじめ出した。
各AIに役割を振って、思考が混じらないようにしているけど
歌詞分析担当AIとエンジン開発担当AIの間に仕様のずれがあるらしく
私にファイルを持たせて、行ったり来たりさせる。
そうかぁ。。。AIを使うんではなくって
これが、AIとの共存ってやつかぁ
妙に納得してしまった。。。
動かないのはタコ率改善のため、私が画像を入れ替えたせいだった。
まだ少し動かないところもあるけど、味ってやつよね?
動いた動画をお兄ちゃんに見せたら、
音楽紙芝居の将来性を感じたと言われた。
なんか目が札束になってますけど?
-
FLAMORIS - Can My 4-Day Lipsync Engine Beat HeyGen?
https://youtu.be/819sYCuLDaA




