「IAEAのような国際機関が必要」OpenAI、AGIよりも高性能な“超知能”の規制を求める声明

このエントリーをはてなブックマークに追加

OpenAIは5月22日、サム・アルトマンCEO、グレッグ・ブロックマン社長、チーフサイエンティストのイリヤ・サツケバー氏の連名で「スーパーインテリジェンスのガバナンス」というタイトルでブログを公開した。今後登場するであろう汎用人工知能(AGI)や、それを凌ぐ性能を持つ超知能(Super Intelligence)について意見を表明した。

それによれば、AIが今後10年以内に多くの分野で専門家のレベルを超える非常に高い能力を持つことになるとし、人間社会が持つ環境問題や社会問題を解決する一助となる一方で、悪用によるリスクを指摘。国家間の連携による適切な管理の必要性を強調した。

そのうえで、AIの発展を成功に導くための最初の考え方として、以下の3点を挙げた。

  1. 安全性と社会へのスムーズな統合を両立するために、ある程度の調整が必要であること
    世界中の主要政府がプロジェクトを立ち上げ、現在の取り組みの多くを包摂するか、(以下のような新しい組織の支援を得て)AIの性能の成長率が年間一定の割合に制限されること

  2. 一定以上の能力を持つものに対して、システムの監査や開発の程度の規制などを行う能力のある国際機関の設置(原子力におけるIAEAにあたる機関)
  3. 超知能の安全を保つための技術力

その上で、企業やオープンソースのプロジェクトがここでの規制の影響を受けず、しきい値を下回るモデルを開発できるようにすることが重要であるとも強調した。

価値とリスクのレベルはインターネット技術と同等とし、今の社会のアプローチは適切であるとした。また、世界中の人々がAIシステムを民主的に決定すべきとも延べ、このような仕組みをどう設計するかは未知数なものの、実験をしていくと強調した。

印象的なのは、IAEA(核兵器拡散を防ぐために設立された国際機関)のような国際機関の設置を訴えている点だ。超知能の開発が国際的な監督下に置かれるべきという提言は、先週のOpenAI CEOであるサム・アルトマン氏の米公聴会でのAIに関する発言とも一致する。