特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 611件
Metaの研究チームは、人間が物語を聞いている最中の脳活動と大規模言語モデル(LLM)の内部表現を比較した結果、モデルの規模や入力文脈の長さに応じて、脳の言語処理と対応する計算構造が現れるとする研究成果を[発表]{target=“_blank”}した。論文「Scaling and context steer LLMs along the same computational path as the human brain」は、2025年12月にarXivで公開されている。 ## 脳活動とモデル内部表現をどう対応づけたのか 研究では、被験者3人が約10時間にわたってオーディオブックを聴取する際の脳活動を「脳磁図(MEG)」を用いて計測した。 取得した脳信号は、単語の出現タイミングに同期させて解析され、言語刺激に対する時間分解能の高い反応として整理された。 一方、同じテキストを22種類の言語モデルに入力し、各層の内部表現を抽出。脳信号からモデル内部表現を予測する線形写像を学習し、その予測精度をもとに、どのモデル層が、脳のどの時間帯の反応と対応するかを評価した。 **図:脳活動とLLM内部表現の対応付け手法の概要** ![method_figure_tmax.png] :::small 画像の出典:[Scaling and context steer LLMs along the same computational path as the human brain]{target=“_blank”} ::: ## 層の深さと脳反応の時間順序に見られた対応関係 解析の結果、多くのモデルにおいて、浅い層ほど脳の早い反応と、深い層ほど遅い反応と対応する傾向が確認されたという。これは、言語処理における計算の進行順序が、LLMと人間の脳で部分的に一致している可能性を示すものとされる。 研究では、この層の深さと脳反応のピーク時間との対応を「temporal alignment(時間的整合)」と呼び、単なる相関ではなく、計算の段階構造が揃っているかどうかを捉える指標として位置づけている。 ## モデル構造の違いが示した共通点と相違点 こうした時間的整合は、Transformer系モデルだけでなく、状態空間モデル(Mamba)や再帰型モデル(RecurrentGemma)でも観測された。 一方で、BERTやRoBERTa、wav2vec 2.0といった双方向モデルでは、脳活動との対応自体は一定程度見られるものの、計算の時間順序に関する整合は弱く、統計的に有意ではないケースが多かったという。 研究チームは、モデルが「未来の単語も参照できる」双方向構造を持つことが、時間順序の対応を弱める可能性を指摘している。 ## モデル規模の拡大で現れた“対応の立ち上がり” モデルサイズの影響については、パラメータ数のみを段階的に変化させたPythiaモデル群を用いて検証された。その結果、最小規模の14Mパラメータモデルでは時間的整合は有意に確認されなかった一方、12Bパラメータモデルでは非常に強い整合が示された。 この対応の強まりは、モデルサイズの増加に対して対数的に進み、一定規模を超えると伸びが緩やかになる傾向も見られたという。 ## 文脈情報が計算対応に与える影響 研究では、入力する文脈の長さも重要な要因として検証された。Llama-3.2(3B)を用いた実験では、文脈をほとんど与えない条件では時間的整合は弱く、文脈長を1000語程度まで拡張すると、脳活動との対応が大きく強まった。 この効果はMambaモデルでも同様に確認されており、文脈情報の蓄積が、脳に近い計算順序を形成する要因になっている可能性が示唆されている。 ## 単語予測の容易さだけでは説明できない点 研究チームは、こうした対応が単に「次の単語を予測しやすいかどうか」によって生じている可能性も検討した。その結果、予測可能性の高低で単語を分けても、時間的整合の傾向は維持されており、単純な次トークン予測の難易度だけでは説明できないと結論づけている。 ## 研究が示唆することと、残された課題 研究は、LLMのスケールや文脈処理能力の拡張が、人間の脳における言語処理の計算構造と対応する方向へ作用する可能性を示した。一方で、被験者数が限られている点や、MEGの空間分解能の制約、感覚入力を伴わないテキストモデル中心の分析である点など、今後の検証課題も挙げられている。 研究チームは、今後さらに多様なモデルや条件での比較を通じて、言語モデルと人間の認知過程の関係を精査していくとしている。 :::box [関連記事:Meta、脳波からリアルタイムで文章を生成するAIモデル「Brain2Qwerty」を発表– 非侵襲的BCIの新時代へ] ::: :::box [関連記事:LLMへの指示が得意な人は脳の働きが違う──「プロンプト力」がfMRI研究で初めて科学的に確認される] ::: :::box [関連記事:ChatGPTを使うと脳がサボる?──MIT、エッセイ執筆中に脳活動が最大55%低下することを確認] ::: :::box [関連記事:GPTとfMRIを使って脳から言葉を読み取ることに成功、テキサス大が論文発表] ::: :::box [関連記事:NTT、人が見た映像や思い浮かべた光景を文章化する「マインド・キャプショニング」開発──脳活動から非言語思考をテキスト化] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ