企業がAI倫理を導入する際の注意点を考察したPDF書類が公開

このエントリーをはてなブックマークに追加

一般社団法人 AIビジネス推進コンソーシアム AI倫理ワーキンググループは8月31日、AI(人工知能)倫理を企業に導入するうえでの注意点について考察した文書「企業活動にAI倫理を導入していく上での注意点と提言〜リスクベース・アプローチを踏まえた検討〜」を一般公開した。

本提言は、東京大学未来ビジョン研究センター・江間有沙 准教授、松本敬史 客員研究員の協力のもと、企業がAI倫理を導入するうえでのリスクの洗い出し方、対策の考え方を具体的なユースケースをもとに分析し、検討・整理を重ね、今後AI倫理を導入しようとしている企業に向けてまとめたもの。

自社のAI倫理に対するポリシーを設定すべき

本提言は、「1.自社のAI倫理に対するポリシーを設定すべき」「2.AIにより生み出す価値とリスクの両面を見える化すべき」「3.外部のステークホルダーとの共通認識を作るべき」の3つで構成される。それぞれ詳細は以下のとおり。

1.自社のAI倫理に対するポリシーを設定すべき

昨今、持続的な社会実現のためにESG(Environment=環境)、Social=社会、Governance=ガバナンス)にもとづく経営強化が多くの企業で進んでおり、企業における社会的責任が強く求められているなか、AI倫理もこのような流れのなかに組み込まれていくことが想定される。企業や社会の流れを受けて、まずはAI倫理に対する自社のポリシーを構築するべきであることを提言している。

2.AIにより生み出す価値とリスクの両面を見える化すべき

企業がAIを活用する目的は、新たな事業価値を生み出すことにある。そこでは、提供したい価値とリスクの両面を可視化したうえで、設定した自社のAI倫理ポリシーに沿って判断することが重要になる。WGでは、このような可視化に対してリスクチェーンモデルの活用が非常に有効であることを実際のユースケースを用いて示した。

3.外部のステークホルダーとの共通認識を作るべき

AI製品・サービスによる受益者が広範囲におよぶため、AI倫理においては複数のステークホルダーとの共通した対応が不可欠になる。リスクチェーンモデルで可視化したリスクおよび価値について、自社と外部のステークホルダーとの共通認識を作り、連携してAI倫理に取り組むことが重要であると考えている。

「AI原則をアップデートしていくことも重要」

東京大学未来ビジョン研究センター 江間有沙 准教授、松本敬史 客員研究員は、「東京大学未来ビジョン研究センターでは、AI原則を実践に導くためのアプローチ(Principle to Practice)として『リスクチェーンモデル(※)』を開発し、さまざまなケース検討を実施しております」とコメント。

続けて、「今回AIビジネス推進コンソーシアム様との検討により、具体的なケースに根差したリスクコントロールの検討を行ない、マルチステークホルダー間で合意形成することの重要性を改めて学ぶことができました。今後AIサービスやシステムの倫理や安全性の事例を多く収集すると同時に、逆にAI原則をアップデートしていくことも重要になります。本活動のような検討が多く実施され、AIを信頼できる社会づくりに向けた実践的な議論が進んでいくことを期待します」と述べている。

(※)AI技術・サービス提供者が自らのAIサービスに関するリスクアセスメントを実施し、リスク要因の関連性を可視化することで、多面的に存在するリスクを段階的に低減化するための分析モデルを指す。

>>ニュースリリース