KDDI、独自のAI原則を制定「AIで不当に差別されないよう配慮」

このエントリーをはてなブックマークに追加

KDDI株式会社は8月30日、KDDI総合研究所の協力のもと「KDDIグループAI開発・利活用原則」を策定した。

本原則は、「1.人間の尊厳」「2.適正な利用」「3.制御可能性、人間の判断の介在」「4.安全性とセキュリティ」「5.プライバシー」「6.公平性・非差別」「7.透明性」「8.アカウンタビリティ」「9.連携」で構成される。

「1.人間の尊厳」では、AI開発者およびAI利用者はAIシステムなどの開発・利活用において、人間の尊厳と個人の自律を尊重することを明言している。

「6.公平性・非差別」では、AI開発者、AI利用者、AIデータ提供者は、AIシステムなどの判断にバイアスが含まれる可能性があることに留意。「AIシステムなどの判断によって個人が不当に差別されないよう配慮する」と述べる。

KDDIグループは、本原則をKDDIグループ内で浸透・徹底するために、啓発活動や規程の作成などに取り組むとしている。

KDDIグループはユーザーのプライバシーに関わる事項についてはとくに配慮が必要と考え、潜在的なプライバシーポリシーの課題を評価。事前にリスクに対応するプライバシー影響評価(PIA)の仕組みを導入し、適切なAIの開発・利活用がされているのかをサービス提供の前に確認する体制を整備する。加えて、外部の有識者からも意見を聴取し、適切な運用に努めるという。

AIの開発・利活用にあたり、日本をはじめ多くの国や地域でAIに関する原則・指針などが策定されている。AIに関する原則・指針などは経済協力開発機構(OECD)やG20で共有されており、AIにおける雇用の喪失やプライバシーの侵害といった倫理面などの課題解決に向けた議論が国際的に活発化している。

KDDIグループは、これまでにもユーザーに安心してKDDIグループのサービスを利用してもらうために、AIにおいて重要な役割を持つデータの取り扱いに対して、「データ利用における基本指針」を策定し、データの適切な活用を推進してきたという。

今回、策定した原則はAIシステムなどの技術革新や国際的な動向を踏まえて、不断に見直し、必要に応じて柔軟に改定するとしている。

>>ニュースリリース

日立、独自のAI倫理原則を策定「人間中心の社会を構築する」

近年、株式会社日立製作所、富士フイルムホールディングス株式会社(富士フイルム)、コニカミノルタ株式会社など、さまざまな日本企業がAIに関する独自の方針を制定している。

詳細が気になる人はそれぞれ以下の記事をチェックしてほしい。