特集
FEATURE
ビジネス
BUSINESS
ラーニング
LEARNING
エンジニアリング
ENGINEERING
学術&研究
ACADEMICS & STUDY
公共
PUBLIC
エンタメ&アート
ENTERTAINMENT & ART
1~13 / 2688件
米AIスタートアップのAnthropicは2026年2月24日、先端AIモデルの開発と展開に関する自主的な安全枠組み「Responsible Scaling Policy(RSP)」をVersion 3.0へ改定したと[発表]{target=“_blank”}した。改定版は同日付で発効した。 今回の見直しでは、自社が業界内で「大きく先行している(significant lead)」と判断される場合に限り、開発や展開の遅延を検討する方針を明文化した。一方で、競合他社が同等水準に達している、または追随していると判断される場合には、自社のみが開発を遅らせる義務は負わないと整理した。 ## 「単独で止める」前提を修正 RSPは、将来的に「破滅的リスク(catastrophic risks)」をもたらし得る高度AIの管理を目的とする枠組みとして策定されたものだ。これまでも段階的な能力評価やリスク評価、社内外の審査体制を設けてきた。 Version 3.0では、自社のコミットメントと、業界全体に対する推奨事項を明確に分離した。文書では、AIによるリスク水準は複数の企業の行動によって決まるとの認識を示し、一社のみが開発を停止しても、他社が同様の能力を持つモデルを展開すれば、全体のリスク低減にはつながらない可能性があると指摘している。 このため、自社が明確に先行している場合には、強い安全性の裏付けが得られるまで開発や展開を遅らせる可能性があるとする一方、その「有意な先行」が解消されたと判断されれば、遅延措置は必ずしも適用されないとした。 ## 競合動向を条件にした判断へ 改定版の付属文書(Appendix A)では、競合企業の安全対策やモデル能力も判断材料に含めると明示した。競合がより強固なリスク緩和策を導入している場合には、それに見合う水準を満たすまで遅延を検討する可能性がある。一方、競合が同等以上の能力をすでに展開している状況では、自社のみが停止することは前提としない構造となっている。 こうした整理により、RSPは「自社単独で業界水準を規定する」形から、「競争環境を前提にリスク管理を行う」形へと位置づけを修正した格好だ。 なお、AnthropicはフロンティアAIの安全管理にあたり、モデルの危険度に応じて安全措置を段階化する「[ASL(AI Safety Level)]{target=“_blank”}」を運用している。ASLは、能力水準に応じて必要な安全対策の強度を定める枠組みで、同社は過去に最上位区分を適用した事例も公表している。RSP v3.0は、こうしたリスク評価を前提に、開発・展開の意思決定や透明性の在り方を整理したものと位置づけられる。 ## 透明性強化へ「Risk Report」新設 Version 3.0では新たに、モデルごとのリスク評価をまとめた「Risk Report」を定期的に公開する仕組みを導入する。脅威モデル、緩和策、総合的なリスク判断などを記載し、オンラインで公表する方針だ。公開は3〜6か月ごとを想定している。 また、「Frontier Safety Roadmap」として、安全・整合性・セキュリティ・政策の各領域における目標と進捗を示す枠組みも新設した。外部から進捗を確認できる形で説明責任を強化する。 ## 開発競争の激化が背景 生成AIを巡っては、OpenAIやGoogleなどが高性能モデルを相次いで投入しており、性能向上と安全対策の両立が課題となっている。 Anthropicはこれまで、安全性を重視する企業として位置づけられてきたが、今回の改定は、急速に進む競争環境を前提に、自社の安全枠組みを再設計したものといえる。 今後は、自社が「大きく先行している」と判断する基準や、競合の安全対策をどのように評価するのかといった運用面が、実際のモデル開発局面でどのように適用されるかが注目される。 :::box [関連記事:Anthropic、フロンティアAI開発者向け「透明性フレームワーク」を提案──安全開発を義務化する“Secure Development Framework”を柱に] ::: :::box [関連記事:Claude Opus 4、Anthropicが「AI安全性基準 (ASL)-3」を初適用——化学・生物・放射性物質・核兵器関連能力の向上と“懸念挙動”が導入の決め手に] ::: :::box [関連記事:AIエージェントはどこまで“自律”しているのか──Anthropicが数百万件データを初公開分析] ::: :::box [関連記事:OpenAI「安全性のチーム解散」Anthropic「既存ポリシー反省」──各社の“AI安全”の現在地] ::: :::box [関連記事:米国防総省、Anthropic・Google・OpenAI・xAIに各 2億ドル──フロンティアAI領域で複数年契約] :::
Ledge.aiにソリューション情報を掲載しませんか?
使い方や具体的な目標などを詳しくご説明します
お問い合わせ