日立、独自のAI倫理原則を策定「人間中心の社会を構築する」

このエントリーをはてなブックマークに追加

日立製作所 公式サイトより



株式会社日立製作所は2月22日、社会イノベーション事業において、人間中心の人工知能(AI)を開発・社会実装するために「AI倫理原則」を策定したと発表。本AI倫理原則は「行動規準」と、安全性や公平性、プライバシー保護などの観点で定めた「実践項目」で構成される。

行動規準は「持続可能社会実現のために、AIの開発、利活用を計画します」「人間中心の視点で、AIを社会実装します」「提供価値が長期間にわたり持続するよう、AIを維持管理します」の3項目。

実践項目は「安全重視」「プライバシー保護」「公平性実現」「適正開発・利活用」「透明性・説明責任重視」「法令遵守(じゅんしゅ)」の7項目。


新規CTA

「公平性実現」の項目では、AIの判断結果が多様なステークホルダーの利益にかなうとともに、人種や性別、国籍などによる差別や偏見を発生させたり、助長させたりしないようAIの実現、運用に努めるとする。

また、「透明性・説明責任重視」の項目では、AIの判断結果の根拠などを検証し、説明できるようにAIの透明性確保に加え、AIやその判断結果に関して用途や状況に応じ、説明責任を果たすよう努めるとした。

株式会社日立製作所 執行役社長兼CEOの東原敏昭氏は、本AI倫理原則の策定に際し、「日立は『優れた自主技術・製品の開発を通じて社会に貢献する』を企業理念に掲げ、創業以来社会に役立つ技術を世界中に広めると同時に、『損得より善悪』を重視して企業活動をしております。AI倫理原則を定めることでAI開発における倫理課題を改めて理解し、社会課題を解決して人間中心の社会を構築するAI技術の発展に貢献していきます」とコメントを寄せている。

>>ニュースリリース

富士フイルム、AI人材育成のため開発者以外にも教育 独自方針で明らかに

近年、さまざまな企業がAIに関する規約を策定している。

少し前の話だが、富士フイルムホールディングス株式会社(富士フイルム)は2020年11月30日に、研究・開発、生産、販売・マーケティングなどの企業活動全般において、AIを有効かつ適切に活用するための指針として、「富士フイルムグループ AI基本方針」を策定したと発表した。

本基本方針では、富士フイルムグループは、AIの積極的な利活用を推進するために、社内で人材育成のためのリテラシー教育やトレーニングを開発者に限定せずに実施すると明らかになった。

そのほか、詳細は以下の記事をチェックしてほしい。


新規CTA