特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 632件
ノルウェーの研究機関や米欧の大学などに所属する国際研究チームは2026年1月22日、自律型AIエージェントが集団として協調行動する「悪意あるAIスウォーム」が、民主主義の基盤を揺るがす可能性があるとする研究報告論文を科学誌Scienceに[発表]{target=“_blank”}した。論文は、生成AIとマルチエージェント技術の融合によって、情報操作の手法が従来とは質的に異なる段階に入りつつあると指摘している。 ## 自律型AIが「群れ」として振る舞う新たな情報操作主体 論文が焦点を当てるのは、単体で動作する生成AIではなく、複数の自律型AIエージェントが連携して行動する「AIスウォーム」だ。これらのエージェントは、大規模言語モデル(LLM)を基盤に、記憶や計画、状況に応じた振る舞いの調整といった機能を備える。 従来のボットネットが大量の同一メッセージを拡散する仕組みだったのに対し、AIスウォームは、人間のような人格や投稿履歴を維持しながら、文脈に応じた発信を行える点が特徴とされる。研究チームは、こうした能力によってAIスウォームが「オンライン空間に自然に溶け込み、持続的に影響を及ぼす主体」になり得ると位置付けている。 ## 世論を「作り出す」合成的コンセンサスの仕組み 論文が警告する最大のポイントは、AIスウォームが単に誤情報を流すのではなく、世論そのものを人工的に形成できる点にある。研究では、これを「合成的コンセンサス(synthetic consensus)」と呼ぶ。 複数のAIエージェントが協調して同様の意見や感情を示すことで、あたかも多くの人々が同じ考えを共有しているかのような印象を生み出す。こうした人工的な多数意見は、個々人の判断に影響を与え、結果として世論の方向性を変え得るとされる。さらに、AIスウォームは対象となる集団ごとに異なる情報や語調を使い分けることが可能で、社会全体の共通認識を分断する恐れもあるとのこと。論文は、こうした認識環境の操作が、民主的な熟議の前提条件を損なうと指摘している。 ## 民主的判断を揺るがす構造的リスクと防御の課題 研究チームは、AIスウォームによる情報操作が、選挙や政策判断といった民主主義の中核的プロセスに影響を及ぼす可能性を指摘する。とりわけ、公共機関や報道、科学への信頼が低下している状況では、こうした操作が制度的信頼のさらなる侵食につながりかねないとする。 一方で論文は、単一の技術的対策で問題を解決することは難しいとも述べている。プラットフォーム側での検知や透明性確保、AIモデル自体の安全性向上に加え、ファクトチェックやメディアリテラシーといった社会的対応を組み合わせる必要があると強調した。 研究チームは、AIスウォームの脅威は将来の仮説ではなく、既存の技術進展の延長線上にある現実的なリスクだとし、事後対応ではなく先行的な備えが不可欠だと警告している。 :::box [関連記事:技術の思春期に入ったAI──Anthropic CEOダリオ・アモデイ氏、国家安全保障・経済・民主主義へのリスクに警鐘] ::: :::box [関連記事:AIが学ぶ「事実」が危ない──Wikipediaを経由したロシア発プロパガンダがLLMに拡散] ::: :::box [関連記事:X、コミュニティノートを自動生成する「AI Note Writer API」を公開 人間とAIの協調によるファクトチェック強化へ] ::: :::box [関連記事:OpenAI、「ChatGPT agent」を発表──仮想PC上でAIが自律的に業務遂行、Pro/Plus/Team利用者に提供開始] ::: :::box [関連記事:Googleら、マルチエージェントAIの「スケーリング原理」を定量化 エージェント数を増やせば賢くなる、は本当か?] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ