「日本はAI倫理がとても弱い」東大の文系教授がAI社会に鳴らす警鐘

このエントリーをはてなブックマークに追加

ジャーナリズムやマスメディア研究で知られる東京大学の林香里教授(撮影:上代瑠偉)

AI(人工知能)はすでに世の中のあらゆる場面に浸透しつつある。しかし、われわれの仕事の負担を減らしたり、生活を便利にしたりするものの、AIは必ずしもわれわれの救世主のような存在とは言えないだろう。AIには現代社会にある差別や偏見を再生産する危険性があるからだ。

2015年には「Google フォト」でアフリカ系(黒人)の女性をゴリラと認識した「ゴリラ問題」を受け、米グーグルが大きな非難を浴びた。また、2018年には米AmazonがAIを活用した人材採用システムが女性差別をしていたとして、同社はプロジェクト中止を発表した。このような問題はなぜ起こるのだろうか?

今回は、東京大学 理事・副学長(国際・ダイバーシティ担当)であり、東大とソフトバンクによるAI研究機関「Beyond AI 研究推進機構」において、「B’AI Global Forum:AI時代における真のジェンダー平等社会の実現とマイノリティの権利保障のための規範・倫理・実践研究」の研究リーダーを務める林香里教授に話を聞いた。

東京大学 林香里教授

ジャーナリズムやマスメディア研究で知られる。東京大学 総長特任補佐(2019年度~2020年度)などを歴任し、2021年度からは東京大学 理事・副学長(国際・ダイバーシティ担当)に就任した。

Beyond AI 研究推進機構では、AIが普及した社会で忘れられがちな女性をはじめとするマイノリティに光を当てる「B’AI Global Forum:AI時代における真のジェンダー平等社会の実現とマイノリティの権利保障のための規範・倫理・実践研究」の研究リーダーを務めている(※1)。

(※1)東京大学Beyond AI研究推進機構には、基盤技術研究やその他の学術領域との融合によって新たな学術分野の創出を目指す4つの基礎研究グループがある。B‘AI Global Forumは、基礎研究グループの1つで、文理融合・分野横断型でAIと社会をつなぐ「AIと社会」プロジェクトとして立ち上がった。詳細は公式サイトまで。

AIが差別を再生産する現象はなぜ起こるのか?

米Amazonは2018年、AIを活用した人材採用システムが女性差別をしていたとして、プロジェクト中止を発表した(Unsplashより)

──近年、AIが社会の差別を再生産することで、マイノリティへの偏見を助長したり、マイノリティが不公平に扱われたりする現象が起きています。機械学習は過去のデータをもとに訓練することが大きいと思いますが、このような現象はなぜ起こるのでしょうか?

AIはこれまでのさまざまなデータを大量に学習し、次の社会を作っていくものです。

たとえば、(『サピエンス全史』『ホモ・デウス』などの著書で知られる歴史学者である)ユヴァル・ノア・ハラリ氏が指摘していますが、AIを活用することで、目の動きでどの人が同性愛者であるかわかる、自分自身よりもAIのほうが自分のことを把握している時代がやってくるという警告があります。

自分が同性愛者だと自覚していなくても、AIがたくさんのデータを学習することで、どのような目の動きをする人が同性愛者の傾向があるかがわかるというのです。そうしたAIの「判断」がどのように使われるのか、非常に不安です。

──どうすればAIによる差別の再生産は防げますか?

AIはこれまでの社会の写し鏡です。アルゴリズムから生まれるバイアスは技術で調整できるという議論もありますが、やはり根本の社会そのものの偏見や差別がなくならないと、AIによる差別もなくならないと思います。

そのうえで、データを誰が持っているか、データがどこで作られ、どう集められて何に使われているのかといった透明性についても議論されるべきです。

海外と比べて日本は倫理的な視点がとても弱い

Beyond AI 研究推進機構はソフトバンク株式会社、ソフトバンクグループ株式会社、ヤフー株式会社、東大が設立した研究機関で、2020年7月に共同研究を開始した(公式サイトより)

──アメリカではAIが社会に与える悪影響について研究が進んでいると思います。日本の状況はどうでしょうか?

実は、日本には私たちが関心をもっている「AIと社会」のテーマの研究書はあまり存在しません。自動運転やAI開発の状況などに関する研究はありますが、ジェンダーを含め、AIがマイノリティに対してどのような影響を与えるのかといった倫理的な視点は弱いと思います。

私たちが主宰するB’AI Global Forumではこの状況を克服するために、海外の先行研究を渉猟(しょうりょう)し、メンバーが1人1冊、ブックレビューをするプロジェクトをスタートさせました。ちなみに、昨日(5月12日)は第1回で、AIは白人のテクノロジーだと指摘する『Artificial Whiteness』という本を題材にしました。

──現在の状況を変えるためには、AI人材や研究者にも女性を含むマイノリティがいることが重要だと思います。しかし、世界経済フォーラムによると、AIのスペシャリストのうち女性の割合は25%以下に過ぎません。

私は当初、情報科学・情報工学研究は女性にフレンドリーな分野かと思っていましたが、女性の数はとても少なく、男性支配が顕著です。

B’AI Global Forumでは、今年の3月にIT分野のジェンダーギャップを埋めるために活動する一般社団法人Waffleとともに、「どのようにジェンダー不平等な社会を是正し、AIが適正な形で開発され、使われるようにするか」を考えるシンポジウムを開催しました。

グーグルなど私的な企業が独占する危険性

マーガレット・ミッチェル氏は現地時間2020年12月2日、Twitterで米グーグルに解雇を通告されたと発言。グーグル社員ら7000名近くが抗議するなど、大きな波紋を広げている(該当記事より)

──米グーグルが倫理的AIチームの共同リーダーを務めるマーガレット・ミッチェル氏らを解雇し、社内外で大きな波紋を広げています。林先生はグーグルのような私的な企業がAI研究に大きな影響力を持つ状況をどう見ていますか?

AIは私たちの生活に広範な影響がありますが、AIを開発したり、お金を出したりしているのは私的な企業です。これらの企業はここまで公的な責任を問われない立場で、利潤追求をしてきました。

商業的に成功することを目的とする私企業が、私たちの社会の制度や組織の仕組みなどを規定し、私たちの価値観さえ組み換えてしまうほど大きな影響力を持っています。私たちが選んだ政治家ではなく、情報産業によって社会が統治されている。このズレを私たちはもっと意識しなくてはいけません。

日本はこのような危機感が弱い気がします。AI開発を進める企業の取り組みには良いものもありますが、恩恵を受ける人が偏っていたり、被害や時には暴力さえ受けたりする人もいます。このような認識を社会全体が持ち、AIがなるべく公平に使われることを意識するべきだと思います。

──最近では、米アップルがiPhoneなどに搭載されているSiriの英語版において、女性の声をデフォルトにすることを取りやめました。この件に関しては、以前から国連教育科学文化機関(UNESCO)が「性別に関する固定観念を定着させ、性差別的な発言や乱暴な発言を助長する」と指摘していました。しかし、日本のSNS上などでは十分な理解が得られないように見えます。

私たちの社会では「家で子どもや年寄りの世話をするのはお母さん」「会社に行くのはお父さん」といった性別役割分業が当たり前です。家庭だけではありません。学校では「給食の配膳している人は女性で、教壇に立っているのは男性」という様子も見て育っています。

女性が従属的なポジションにいるのが当たり前と思われている社会では、Siriが女性の声で何が悪いのか、疑問に思うこと自体難しいと思います。私自身も大学で働きながら、家庭で料理したり、子どもを育てたりと、旧来の女性像を完全に否定はせずに日常生活をやり過ごしてきました。

これらを覆すのはラディカルな社会変革です。頭のなかで当たり前だと思っていることを切り替える必要があります。資本主義社会は「男性が外で稼ぎ、女性が無償で家内労働をする」という家父長制と核家族をもとに発展してきた背景があります。このような歴史を学び、批判的に捉える思考が必要です。

社会制度とそれをもとにした社会構造の問題なので、仮にSiriの一件が理解を得られたとしても、また別の問題では理解を得られない可能性があります。この問題には皆で取り組まなければいけません。

日本国内でもAI倫理の教育拠点を作りたい

現在、林教授が研究リーダーを務めるB‘AI Global Forumでは、テレビの映像をAIで分析してニュース番組で女性と男性の登場する割合を検証したり、AI開発の競争のなかで取りこぼされる女性を含むマイノリティの権利と技術開発のジレンマに関して国際調査をしたり、AI時代に再生産される可能性があるレジャー時間中の格差や差別について考えたりなど、さまざまなプロジェクトを計画中である。

また、東大教養学部の全学自由研究ゼミナールで1・2年生を対象に開講中の「AIと社会」では、「AIと人種」「AIとジェンダー」「AIと障害」に関する講義など、さまざまなゲストスピーカーを招き、学生と議論している。林教授は今後の目標について、日本国内でジェンダーやマイノリティへの視点を持つAI倫理の教育拠点を作りたいと語る。

林教授曰く、日本ではAI技術に対する肯定感が高い(※2)一方で、男女平等への規範意識は薄い(※3)。Beyond AI 研究推進機構はAI社会で忘れられがちなマイノリティに対する視点を持った、日本国内では数少ない研究機関と言えるだろう。現代社会における差別や海外での動向にも目を向けながらも、今後の活動に注目したい。

(※2)International Science Survey 2019-2020, Pew Research Center。AI技術開発を<よいこと>と思う割合は日本が65%、アメリカは47%、ドイツは47%、イギリスは46%

(※3)Spring 2019 Global Attitudes Survey, Pew Research Center