特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
2025年3月、アメリカ人工知能学会(AAAI)が発表した[報告書]{target=“_blank”}によって、汎用人工知能(AGI)の実現に向けた現行のアプローチに対する根本的な疑問が明らかになった。調査に参加した475名のAI研究者のうち76%が、「大規模言語モデル(LLM)をスケールアップするだけではAGIは実現しない」と考えていることが判明した。 この調査結果は、AAAIの「AI研究の未来に関する大統領パネル(Presidential Panel on the Future of AI Research)」がまとめた報告書に基づくもので、2024年夏から2025年春にかけて実施された。パネルは、米国、欧州、アジアを中心とする多様な専門家24名によって構成され、AGIを含むAI研究の17分野について議論を重ねたという。 ## なぜ疑念が広がるのか──LLMの構造的限界 報告書のAGIに関する章では、現在のLLMベースのアプローチでは、推論の正確性や抽象概念の表現、長期的計画能力に限界があると指摘している。LLMはあくまで「もっともらしい」応答を生成する能力に優れているものの、論理的に整合性のある推論や明示的な知識表現には不向きであり、これがAGIに必要な「柔軟で一般的な知性」には結びつかないとされている。 具体的には、GoogleやOpenAIが開発する最先端モデルであっても、推論能力の保証が難しいことや、因果関係を理解する能力に課題が残るといった問題が挙げられている。また、調査に回答した研究者の61.8%は「AGIに到達するには少なくとも50%以上の割合で記号的AI(symbolic AI)技術が必要」と回答しており、現行のニューラルネットワーク主体のアプローチのみでは不十分との見方が強い。 ## AGIに必要な「次の一手」とは AAAIの報告では、AGI開発には単なるモデルの拡張ではなく、以下のような新たな方向性が不可欠であると提言されている。 - **神経記号的アプローチ(Neuro-symbolic AI)** :機械学習と論理的推論を統合することで、正確性と柔軟性を両立させる研究が進行中。 - **新しい評価基準と安全設計** :AGIの開発・運用には、安全性、透明性、倫理性を担保する新しい枠組みの整備が必要。 - **学際的連携** :心理学、哲学、経済学などとの協働を通じて、より人間中心的なAI設計の実現を目指す。 このような背景から、現在のAGI研究は技術的スケーリングだけでなく、概念的・倫理的な再設計を求められるフェーズに入っていることが浮き彫りになった。 ## 業界と研究者の温度差 一方で、産業界は引き続きLLMのスケーリングに巨額の投資を続けている。報道によれば、2024年の生成AI分野への投資総額は560億ドル(約8兆4,000億円)を超え、データセンターの建設による炭素排出量も急増している。だが、研究者たちの多くは「このままでは持続可能でも現実的でもない」との認識を持っている。 調査参加者の79%は、「AIの機能に対する世間の期待は、現実と乖離している」とも回答しており、技術の正しい理解と評価の重要性が強調されている。 :::box [関連記事:AIのスケールアップに限界? 甘利俊一氏がBeyond AIシンポジウムで警鐘] ::: :::box [関連記事:OpenAI「現在ChatGPTはレベル1」AIシステムの進化を測定する新たな内部評価スケールを導入] ::: :::box [関連記事:サム・アルトマン氏が語るAGI(汎用人工知能)の経済学と社会的影響:3つの観察点] :::