特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 2559件
OpenAIのCEOであるサム・アルトマン氏は2025年12月27日(現地時間)、X(旧Twitter)で新たな役職「Head of Preparedness(準備責任者)」の[募集を告知]{target=“_blank”}した。 年俸は55万5000ドル(約8000万円)に加え、株式報酬を含む高額条件が提示されている。同氏はこの仕事について「ストレスフルで、すぐに深みに飛び込むことになる」と表現し、役割の重要性と負荷の大きさを強調した。超知能をめぐる長期研究や組織再編を経て、OpenAIはいま、AIの制御を「研究」から「運用責任」として引き受ける段階に入っている。 **OpenAIのアルトマンCEOがX(旧Twitter)で告知した「Head of Preparedness」の募集投稿** ![openai head of preparedness.jpg] :::small 画像の出典:[SamAltman氏のX投稿より]{target=“_blank”} ::: ## OpenAIが募集する「Head of Preparedness」とは 同職は、OpenAIのSafety Systemsチームに属する中核ポジションだ。フロンティアAIの能力向上に伴い発生し得る深刻なリスクに備えるための枠組み「Preparedness Framework」の技術戦略と実行を統括する。能力評価、脅威モデルの構築、緩和策の設計を一体として管理し、その結果を製品のリリース判断やポリシー、安全ケースに直接反映させる責任を担う。 研究成果を積み上げる役割というよりも、評価結果をもとに実運用上の判断に関与する「責任職」として位置づけられている点が特徴だ。 ## アルトマン氏が示した「いま直面している課題」 アルトマン氏はXへの投稿で、AIモデルの性能が急速に向上し、多くの価値を生み出している一方で、「現実の課題」が現れ始めていると述べた。具体例として挙げたのが、2025年に見られたメンタルヘルスへの影響の「予兆」や、モデルがコンピュータセキュリティ分野で高度化し、重大な脆弱性を見つけ始めている点だ。 同氏は、OpenAIには能力向上を測定するための強固な基盤があるとしたうえで、今後は「その能力がどのように悪用され得るのか」「どのようにその影響を抑制できるのか」を、より精緻に理解し、測定する必要がある段階に入ったと説明した。前例の少ない領域であり、見た目には妥当そうな対策にもエッジケースが存在する、とも指摘している。 ## Preparedness Frameworkが担う役割 Preparedness Frameworkは、フロンティアAIの能力がもたらし得る壊滅的リスクを追跡・評価し、事前に備えるための枠組みだ。サイバーセキュリティや生物分野など、複数の高リスク領域を横断的に扱う。 能力評価、脅威モデル、緩和策の設計を切り離すのではなく、一連のプロセスとして接続し、実際の製品開発やリリース判断に耐えうる形で運用することを目的としている。Head of Preparednessは、この枠組み全体を技術面・運用面の双方から統括する立場となる。 ## 長期視点で描かれた「超知能制御」への挑戦 OpenAIは2023年、人間を超える知能、いわゆる超知能をどのように制御するかを正面から掲げた長期研究「[Superalignment]{target=“_blank”}」を立ち上げた。共同創業者でChief Scientistを務めていたイリヤ・サツケバー氏と、アライメント研究者のヤン・ライケ氏が共同で率い、計算資源の20%を投じる構想として発表された。 Superalignmentは、将来的な超知能の出現を見据えた研究主導の安全アプローチとして注目を集めていた。 ## 研究体制に影を落としたガバナンスの混乱 しかし2023年11月、OpenAIはサム・アルトマン氏の一時解任と復帰という深刻なガバナンス危機を経験する。この過程で、サツケバー氏は取締役会側の中心人物の一人として報じられ、後に自身の関与を悔やむ趣旨を表明した。 2024年にはサツケバー氏がOpenAIを退社し、ライケ氏も退社を表明。ライケ氏は、安全が製品開発より後回しにされていると公に批判した。こうした動きを経て、Superalignmentは事実上、他の研究活動に統合される形となった。 ## 運用の現場へと移った安全の重心 一方でOpenAIは、長期研究とは別の軸として、フロンティアモデルの能力上昇に伴う現実的なリスクを運用で管理する取り組みを進めてきた。その中核に位置づけられているのが[Preparedness]{target=“_blank”}だ。 評価や判断に外部の視点を取り入れるため、専門家によるSafety Advisory Groupを設置するなど、運用面での安全体制を重ねて整備してきた。Preparednessは、将来像を描く研究というよりも、日々のリリース判断と直結する実務的な安全運用の枠組みとして位置づけられている。 ## 報酬水準が示す役割の性格 Head of Preparednessが担うのは、成果が目に見えにくい一方で、判断を誤った場合の社会的影響が極めて大きい役割だ。成功とは問題が起きないことであり、失敗のコストは高い。 年俸55万5000ドルという報酬水準は、希少な専門性というよりも、こうした責任と判断の重さを反映したものと受け取れる。 アルトマン氏が「ストレスフル」と明言した背景には、この役職が前例の少ない領域での判断を継続的に求められる点がある。サイバー防御と攻撃抑止のバランス、生物学的能力の慎重な公開、さらには自己改善するシステムの安全性など、高い不確実性の中で判断を下し続けなければならない。 OpenAI自身が、その重さを隠さずに示した募集だと言える。 ## 研究から運用へ──Preparednessが示す現在地 今回の募集は、OpenAIがPreparedness Frameworkの運用を担う責任者を正式に置き、フロンティアモデルの能力評価やリスク管理を製品開発プロセスに組み込んでいく体制を継続する方針を示すものだ。 Safety Systemsチームの中核ポジションとして、評価結果をもとにした判断や調整を担う役割、Head of Preparednessの重要性が改めて示された形となる。 :::box [関連記事:OpenAI 超知能を制御するチームが解散「安全文化とプロセスは派手な製品に押しのけられてきた」イリヤ氏に続く共同責任者の退職] ::: :::box [関連記事:OpenAI「超知能が誕生すれば制御は不可能」人類を滅ぼすAIを別のAIで監視へ] ::: :::box [関連記事:OpenAIが「Preparedness」チーム結成、 未来の”フロンティアAIモデル”の壊滅的リスクを管理] ::: :::box [関連記事:OpenAI フロンティアモデルのもたらす壊滅的なリスクを防御するための プロセスを発表 取締役会に拒否権] ::: :::box [関連記事:OpenAI、サム・アルトマン氏が安全・セキュリティ委員会のトップを退任し、独立した監視体制を強化] ::: :::box [関連記事:OpenAI サム・アルトマン氏CEOに復帰 取締役会は刷新 5日間の「お家騒動」終結か] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ