公共
生成AIの児童安全安全対策強化へのコミットメント:主要AIテック企業が連携「子供の安全を優先すると確約」
ThornとAll Tech Is Humanは、Amazon、Anthropic、Civitai、Google、Meta、Metaphysic、Microsoft、Mistral AI、OpenAI、Stability AIといった世界の主要なAI企業と協力し、児童の安全を保護するための「Safety by Design」原則に公式にコミットしたと[発表]{target=“_blank”}した。AI企業が、AI技術の開発、展開、および維持の各段階で子供の安全を優先することの確約である。 これらの原則は、AIによって生成される児童性的虐待素材(AIG-CSAM)およびその他の性的被害を防ぐことを目的としている。 公開された「生成AIによる安全設計:児童性的虐待の防止」の新しい報告書には、これらの原則が詳述されており、AI開発者、プロバイダー、データホスティングプラットフォーム、ソーシャルプラットフォーム、検索エンジンがこれらの原則を実施するための具体的な対策と戦略が定義されている。同報告書は、Thorn、All Tech Is Human、および参加企業の一部が共同で執筆した。 各社は、これらの原則に基づいて進行状況を透明に公表し共有することにも合意している。ジェネレーティブAI技術および製品に「Safety by Design」原則を統合することにより、これらの企業は子供たちを保護するだけでなく、倫理的なAI革新をリードしている。 生成AIの誤用は、すでに児童性的虐待の増加を加速している。技術の進展により、加害者は以前にも増して簡単に大量の内容を生成する能力を持ち、新たな虐待素材を創出したり、無害な子供の画像を性的な内容に変えたり、完全にAIで生成されたCSAMを作成することが可能となる。 **AIを使用して画像を歪める例** ![SafetybyDesign-AIexample.jpg] :::small 画像の出典:[THORN](https://www.thorn.org/blog/generative-ai-principles/{target=“_blank”} ::: 開発からデプロイメント、メンテナンスに至るまで、これらの企業はジェネレーティブAIモデルが児童の安全リスクに積極的に対処するよう努めるとともに、トレーニングデータセットの適切な管理、フィードバックループと反復的なストレステスト戦略の導入、コンテンツの出典確認を重視することで、CSAMとCSEMの生成を防ぐための対策を実施するとした。 :::box [関連記事:人気の画像生成AIモデルが子どもの虐待画像でトレーニングされていたことが判明 スタンフォード大学調査] :::