慶應義塾大学は、口元の映像だけから本人の過去の声を再現するAIを開発した。喉頭摘出後や音声障害の患者が自分の声で会話できる可能性を示した。
慶應義塾大学は2025年11月4日、声帯を失った人が、過去の自分の声を使って自然に会話できるAI(人工知能)アルゴリズムを開発したと発表した。口元を撮影した動画だけで、本人の声で高度な会話ができる。
喉頭がんなどの治療で声を失った患者は、これまでAI合成音声などを用いて会話時の音声を代用してきた。しかし、単語レベルでは比較的高い精度を得ているものが多いが、会話の自然さやリアルタイム性、操作性に課題があった。
今回開発した技術は、患者の過去のわずかな音声データを基にAIが学習し、口元の動きから本人の声を再現するものだ。実験では、単語レベルで90%以上、文章レベルでも80%以上の識別精度を達成し、リアルタイムでのスムーズな会話を可能にした。
この成果は、喉頭摘出後の患者だけでなく、吃音、場面緘黙(ばめんかんもく)、機能性発声障害など、幅広い音声言語障害の支援にも応用が期待される。慶應義塾大学は、今後は実際の患者に導入することで医療現場での利用を促進し、QOL(クオリティーオブライフ)の向上につなげたいとしている。
しゃべってなぞると翻訳、現場リーダーと外国人従業員の意思疎通促進ツール
生成AI活用で米国に「追い抜かれた」日本 初動の早さが失われた理由
騒音下でもはっきり声が届く 村田製作所がマスク装着型デバイスを披露
プレゼン資料をAIが読み込み、自動で説明する技術を開発
術中教育を効率化、音声言語を文字言語で保存する手術記録システムを導入
「エビの声」も聞こえる? AIが工場などの空間情報を自然言語で発信Copyright © ITmedia, Inc. All Rights Reserved.
医療機器の記事ランキング
コーナーリンク