News

2023.06.29

知財ニュース

テキストから人の動きの動画を生成するAI「MotionGPT」が公開、テンセントらが発表

MotionGPT_t

テキストプロンプトから人の動きを3D動画で生成する動画自動生成技術「MotionGPT」が公開された。

人間の動作はボディランゲージの1つで、言語と似た意味合いを持つ。そうした着眼点から動きを言語の1つとして学習させた言語モデルが「MotionGPT」だ。中国・テンセントの研究者が開発し、現在、ソフトウェア開発のプラットフォームのGithubで公開中だ。

「MotionGPT」は現在、テキストプロンプトから人の動きを3D動画で生成する、動きをテキストで説明する、動きを予測するなどの機能を持つ。

昨年来、OpenAIのGTP-4をはじめとした大規模言語モデル(LLM)の開発が世界中で行われ日々進化する中で、言語とモーションを統一したモデルの構築は進んでいないという。一方で、言語とモーションを融合した汎用的なモデルが構築されれば、デジタルヒューマンやバーチャルアシスタント、ロボットなどの動きの進化が図れる。

そうした背景から「MotionGPT」が誕生。開発者らは、人間の動きと言語が結びついたモーション言語モデルとして、モーション関連タスクのパフォーマンス向上を目指している。

MotionGPT_1

開発にあたっては、人間の動きを3Dで捉え、動きの制御を行うモーショントークンに変換して「モーション・ボキャブラリー」を構築。それをもとに動きを特定言語として扱い、テキストとモーションを統一した方法でモデル化した。さらにモーションと言語の混合データで事前に機械学習を行い精度を高めている。

MotionGPTは現在、関節を持つ人体の全身の動きと言語の融合にフォーカスしており、顔や手など部分的な動きの活用は想定していない。

人の動きを融合させた言語モデル「MotionGPT」。広く活用されれば、デジタルヒューマンやロボットとのコミュニケーションはより深まると期待される。

「MotionGPT」Githubの該当ページ
関連論文掲載サイト

Top Image : © OpenMotionLab

広告