News

2025.12.08

知財ニュース

慶應義塾大学の研究グループ、声帯を失った人が過去の自分の声でスムーズに会話ができるアルゴリズムを開発

about top

慶應義塾大学の研究グループは声帯を失った人が口元を写した画像だけで過去の自分の声を使って、スムーズに自分の声で会話ができるアルゴリズムを開発することに成功した。この研究成果は喉頭全摘出術、咽喉頭頸部食道摘出術後の患者のみならず、吃音、場面緘黙、機能性発声障害といった幅広い音声言語障害の患者のQOL向上も期待される。

喉頭癌や下咽頭癌の治療として施行される喉頭全摘出術、咽喉頭頸部食道摘出術後の患者は音声を喪失するが、代用音声として近年AI合成音声が用いられるようになってきている。しかし、その会話の精度は単語レベルでは比較的高い精度を得ているものは多いが、実際の会話レベルになると途端に認識のレベルが低下する。多くのシステムではAIで合成した音声を使用する際には文章を機器に入力する必要があり、その操作性や会話におけるタイムラグは臨床応用していくうえで解決すべき課題と考えられてきた。

研究グループは患者の過去のわずかの声に関する音声データや情報さえあれば、その情報を元に、患者本人の声でスムーズに会話できるアルゴリズムを開発した。有効性を検証した結果、単語レベルにおいて、リアルタイムで90%以上の識別率が得られたほか、文章でも80%以上の識別が行えるようになった。

実際の患者に広く導入し、医療現場で利用が促進されることでQOL向上に繋げたいと考えている。また、摘出後以外の音声言語障害にも応用できる可能性があり、吃音、場面緘黙、機能性発声障害といった幅広い患者のQOL向上にも寄与できると考えられる。

プレスリリースはこちら

慶應義塾大学についてはこちら

Top Image : © 慶應義塾大学

広告