AIの偏見を防止できる無償ツール、プリンストン大学

このエントリーをはてなブックマークに追加


画像はPxfuelより

プリンストン大学の視覚AIラボに所属する研究者が、人工知能(AI)システムに活用される、画像データセットに含まれる潜在的な偏見(バイアス)を自動的に検出できるオープンソースのツール「REVISE(REvealing VIsual biaSEs)」を開発した。プリンストン大学が現地時間10月1日に公式サイトで発表した。

同ツールは、クレジットカードなどのサービスや、法廷での判決プログラムなど、あらゆるものに影響を与えるAIシステムのバイアスを是正し、防止するための取り組みとしている。

AIは社会的な偏見や固定観念を反映している

公式サイトによると、AIシステムにバイアスが生じる主な原因の1つとしては、オンラインソースから収集した画像セットに含まれるステレオタイプな画像が挙げられるという。社会的な固定観念や偏見を反映した画像が、意図せずにコンピュータビジョンのモデルに影響を与えるというのだ。

このような指摘は定説と言っても良いかもしれない。東京大学特任講師の江間有沙氏も、株式会社Z会による講義「私たちの鏡としての人工知能: We are What We Eat」のなかで、以下のように言及していた。

「人工知能技術のうち、機械学習は統計学を基礎としています。そのため、過去と未来は変わらないといった前提で、認識や予測をしています。現在のわれわれの社会をベースに考えているので、私たちの社会がすでに持っている差別や偏見を、そのまま素直に学習して再生産してしまいます」

実際、プリンストン大学の研究者がテストしたデータセットでは、人間と花が写る画像で男女に違いがあったという。男性は式典や会議の画像が多いのに対して、女性は舞台や絵画に登場する傾向があったとのこと。

「REVISE(REvealing VIsual biaSEs)」を使用すると、作成者やユーザーは画像データセットに含まれる潜在的なバイアスなどを修正できる。プリンストン大学の研究者は、同ルールをオープンソースとして公開している。AIの開発に取り組む方は要チェックだ。

>>プリンストン大学 公式サイト 該当ページ(英語)