AIを使ったブレイン・コンピュータ・インターフェースで麻痺患者が言葉を取り戻す

Credit: Noah Berger

神経信号をテキストや合成音声が話す言葉に変換するブレイン・コンピュータ・インターフェース (BCI) に関する2つの研究が2023年8月23日、『Nature』に掲載された。人工知能 (AI) を使用したこれらの脳読み取りインプラントにより、2人の麻痺患者が前例のない正確さとスピードでコミュニケーションできるようになった。

スタンフォード大学は、細胞レベルで神経活動を解釈し、テキストに翻訳するBCIを開発した。筋萎縮性側索硬化症(ALS)を患う67歳のPat Bennett氏と共同で研究した。ALSでは筋肉のコントロールが徐々に失われ、動いたり話したりすることが困難になる。

手術により、脳の表面下数mmの発話に関係する部分に、小さなシリコン電極のアレイを挿入。次に、12万5000語という大量の語彙セットと50語の少量語彙セットを用いて、Bennett氏がさまざまなフレーズを話そうとしたときに、Bennett氏の脳内の固有の信号を認識できるように、ディープラーニング(深層学習)のアルゴリズムをトレーニングした。50語では、同研究チームが開発した以前のBCIよりも3.4倍高速に動作し、単語誤り率は9.1%だった。12万5000 語では、誤り率が23.8%となった。

カリフォルニア大学サンフランシスコ校は、18年前に脳幹の脳卒中を起こし、話す能力を失った47歳のAnn氏と共に研究した。皮質脳波(ECoG)と呼ばれる侵襲性が低い技術を使用して、253 個の電極を含む、紙のように薄い長方形を脳の皮質の表面に配置した。1024語の語彙を使って249の文章を話そうとするAnn氏の脳活動のパターンを認識するよう、AIアルゴリズムをトレーニングした。このデバイスは1分当たり78単語を生成し、単語誤り率の中央値は25.5%という結果となった。

さらに、Ann氏の脳信号を、合成音声と表情を模倣するアニメーションアバターに変換するアルゴリズムも作成。結婚式のビデオからの録音をもとにトレーニングすることで、怪我をする前のAnn氏の声に似た音声となっている。

これらのBCIを臨床で使用できるようにするには、さらに多くの改善が必要だ。

両研究チームは引き続き、より堅牢なデコーディング・アルゴリズムによって、デバイスの速度と精度を向上させたいとしている。

関連リンク

Brain-reading devices allow paralysed people to talk using their thoughts

関連記事

アーカイブ

fabcross
meitec
next
メルマガ登録
ページ上部へ戻る