しばらく前に下記のような内容の研究結果の発表があった。
【記者発表】LLMの情報処理は感覚性失語症の脳活動と似ていた ―LLMと失語症との情報処理ダイナミクスの比較―
要約すると下記の内容となるらしい。
ChatGPTなどの大規模言語モデル(LLM)は、驚くほど流暢な文章を生成できるようになった一方で「もっともらしい嘘(ハルシネーション)」をつくこともあります。
東京大学IRCNの研究チームは、この「流暢だが不正確」というAIの特徴が、人間の「感覚性失語症(ウェルニッケ失語症)」の症状と、脳活動のレベルで非常によく似ていることを突き止めた。
1. AIと「失語症」の意外な共通点
研究のきっかけは、AIと特定の失語症患者に見られる**「行動の似通い」**から始まり。
- 生成AIの課題: 質問に対し、一貫性がないのに関係ないことをペラペラと答えてしまう(ハルシネーション)。
- 感覚性失語症の症状: 言葉はスラスラと出るが、言い間違いが多かったり、相手の質問を理解せず一方的に話し続けたりする。
この類似性から、研究チームは**「AIの内部で行われている計算プロセスは、失語症の人の脳活動と同じパターンなのではないか?」**という仮説を立て、最新の数理解析手法で検証を行った。
2. 「エネルギー地形解析」で見えた情報の動き
研究では、複雑な脳活動やAI内部の信号を、凸凹した地形を転がるボールの動きに例える**「エネルギー地形解析」**という手法が使われました。
解析で判明した「失語症の脳」の特徴
解析の結果、失語症のタイプによって、情報の処理パターン(ダイナミクス)に明確な違いがあることがわかりました。
- 運動性失語(ブローカ失語): 言葉が出にくい状態。情報の「滞在時間」の偏りが少ない。
- 感覚性失語(ウェルニッケ失語): 言葉を理解しにくい状態。情報の「遷移頻度(切り替わり)」が極端に二極化している。
3. 主要なLLMはすべて「感覚性失語症」に近い
研究チームが、Googleの「ALBERT」やMetaの「Llama-3.1」など、複数の代表的なAIモデルを解析したところ、驚くべき結果が出ました。
調査したすべてのAIモデルが、健常者の脳活動よりも「感覚性失語症」に近い領域にマッピングされたのです。
これは、現在のAIが流暢に、しかし時に支離滅裂な回答をしてしまうのは、その内部処理の仕組み自体が「感覚性失語症」の状態に近いダイナミクスを持っているからである可能性を示唆しています。
4. この研究がもたらす未来
今回の発見は、単にAIの欠点を指摘するものではありません。以下のような分野での応用が期待されています。
- AIの「健康診断」が可能に: ブラックボックスだったAIに対し、内部状態に基づいた客観的な評価(診断)ができるようになります。
- より賢いAIの開発: 脳科学の知見を取り入れることで、ハルシネーションを抑えた、より人間に近い効率的なAI(ブレインモルフィックAI)の開発が加速します。
出典: 東京大学国際高等研究所ニューロインテリジェンス国際研究機構(WPI-IRCN)プレスリリース(2025年5月15日)
論文: Comparison of large language model with aphasia (Advanced Science)
言語情報処理の認知神経心理学的モデルから考えるとウェルニッケ失語はどの機能が障害されていると考えると
認知神経心理学的なモデルの視点から見ると、ウェルニッケ失語は単に「言葉がわからない」という現象ではなく、「音を意味に変換する辞書」や「情報の交通整理」の機能が壊れてしまった状態と捉えることができます。
特に、以下の3つの主要な機能障害が複雑に絡み合っています。
1. 聴覚的入力辞書(音韻形態の認識)の障害
私たちが言葉を聞いたとき、脳はまずその音を「意味のある単語の音」として認識します。 ウェルニッケ失語では、この**音のパターンを照合する機能(聴覚的入力辞書)**が壊れています。
- 何が起きるか: 音自体は聞こえていても、それが「リンゴ」という言葉なのか「ペン」という言葉なのか、単語として識別できなくなります(ちょうど知らない外国語を聞いているような感覚に近いと言われます)。
2. 語彙意味システム(概念との結びつき)の障害
音として認識できたとしても、それが「赤い、丸い、食べ物」という概念(イメージ)に正しくアクセスできない障害です。
- 何が起きるか: 「リンゴを持ってきて」と言われても、頭の中の辞書のページが破れていたり、索引がズレていたりするため、全く別の行動をとってしまったり、混乱したりします。
3. 音韻出力レキシコン(音の引き出し)の障害
ウェルニッケ失語の大きな特徴である「スラスラ話すが言い間違える(錯語)」は、ここが原因です。 話したい「意味」は浮かんでも、それを正しい「音」として引き出すプロセスの制御が効かなくなっています。
- 何が起きるか: 「時計」と言いたいのに、脳が勝手に隣のページにある「メガネ」という音を引き出したり(語性錯語)、音をバラバラに組み立てて「トケポ」と言ったり(音韻性錯語)します。
認知モデルから見る「なぜ自分の間違いに気づかないか」
認知心理学のモデルには、自分が発した声を自分の耳で聞いてチェックする**「モニター機能(内的フィードバック)」**があります。
ウェルニッケ失語では、入力側の「辞書」が壊れているため、自分が発した「言い間違い(錯語)」を、自分の耳で聴いても「正しい音」として照合できません。 その結果、本人は正しく話しているつもりなのに、周囲には意味不明な言葉(ジャルゴン)が届くというギャップが生じるのです。
まとめ:障害されている主な機能
- 音韻認識機能: 音を言葉として捉える力
- 意味アクセス機能: 言葉とイメージを結びつける力
- 音韻選択・モニター機能: 正しい音を選び、自分の間違いを検知する力
このモデルを踏まえると、ウェルニッケ失語の方への支援は「音(聴覚)」に頼らず、「視覚(絵や文字)」という別のルートを使って意味システムにアクセスさせることが有効だと分かります。
ここからは個人的な感想
LLMは精度は年々上がってきているも文面でしか情報をとる事が出来ていなず誤った理解をすることもみられる事がある。
音声入力にて可能にしても現状は音声から文字に変換したものをLLMに読ますという形になっていると思う。これでは音声の中に含まれる細かなニュアンスの情報を削ってしまい意味を理解する為の情報が欠けてしまう。
それらを補う用になればもっと精度があがるのではないかなと思っている。
今のことろこの記事を読んだだけでは医療現場への応用は難しそうなので新たなものが出てきたらいいなと思います。

コメント