scripted_sequenceとlogic_choreographed_scene

[flv:/~nagae/wp-content/uploads/2008/12/nesan_teahouse.flv 384 288]

歩行動作などのアニメーション(sequence)再生には scripted_sequenceを使えばある程度のことはできる。 しかしセリフ、口パクなどを含む場合は logic_chreographed_scene を使うのが一般的なやりかたのようだ。 で、 サンプルのマップ sdk_faceposer.vmf を改めてつくづくと眺めて見たのだが、 すべてこれらの振り付けはいわゆるidleという姿勢から始まり、 idleに終わるというものになっている。 idleというのはぼーっと突っ立っている姿勢である。 sdk_d1_trainstation_01とか03なども見てみたが、 すべてモデルはidleの姿勢が基本。 そこでトリガーによって座ったり何かに寄りかかったりする。 座った姿勢から始まり座った姿勢に終わるというようなアニメーションはできない。

つまり、scripted_sequenceというのは、 ある初期sequence (loop再生)からトリガーによって何かの別のsequence (通常一度きりの再生)に移り、 終了sequence (loop再生)になるというもの。

logic_choreographed_sceneはこれに対して、idleな状態のモデルに何かトリガーが作用して、 ある一定の振り付けをしてまたidleに戻るというもの。

要するに、良くあるRPGの村人みたいな動作をさせたいのだよね。 ある場所に居て何か質問すると返事をするとかそんなもので良い。 となるとscripted_sequenceとlogic_choreographed_sceneをうまく組み合わせて使うということになるんだが、 よくわからん。 とりあえず簡単なものが徐々に試していくしかないかな。

Phoneme toolMicrosoft Speech SDK。 謎すぎる。 初音ミクの音声データにも使えるのだろうか。 しかしこれで自動口パクできるようになれば多少は研究ネタになり得るのでないか。 valveのドキュメントではchoreography creationのintroductionにちらと書いてあるだけで詳しい説明が欠けている。 口パクは自動生成されると書いてあるのだが、 はて、そこまでたどり着くにはどうすれば良いのか。 YouTubeにFaceposer Tutorial 1: Basic Lipsynchingというのがあるので、 それで勉強するしかないか。