グーグル、研究者たちにAIを肯定的に論じるように指示か

このエントリーをはてなブックマークに追加

画像はUnsplashより

米グーグル(Google)は、人工知能(AI)研究において、同社に所属する科学者たちの論文の管理を強化し、同社の技術を肯定的に評価するように指示していたことが明らかになった。英ロイターが現地時間2020年12月23日に報じている。

英ロイターによると、グーグルには2020年6月頃に「研究者たちは顔や感情分析、人種、性別、支持政党などの問題を取り扱う場合、グーグルの法務、ポリシー、広報チームに相談することを求める」とする審査手続きが追加されたという。研究者たちは同社が潜在的な技術的危害に関する重要な研究に干渉し始めていると捉えているとのこと。

実際、肯定的に執筆するように求められたある論文では、YouTubeに採用されているような、過去のユーザーの履歴をもとに好みを分析し、興味・関心がありそうな情報を提示する「レコメンデーションAI」について論じていた。具体的には、レコメンデーションAIは「誤報」「差別的な結果」「不公平な結果」「コンテンツの不十分な多様性」を促進し、「政治的な二極化」を招く可能性があると言及していたという。

>>英ロイターによる報道

グーグル、著名なAI研究者が突然の解雇「チームを愛し続ける」決意を明らかに

グーグルと言えば、倫理的AIチームの共同リーダーを務めるティムニット・ゲブル(Timnit Gebru)氏が現地時間2020年12月2日、自身のTwitterアカウントで、同社に解雇を通告されたと明らかにしたことが大きな波紋を呼んだばかりだ。

2021年1月5日現在、インターネット上では、グーグルに対して反発する署名に、グーグル社員2695人に加え、学術・産業・市民社会の支援者4302人が署名している。また、SNS上でも、グーグルのほか、マイクロソフトやNVIDIAなど、さまざまな企業の研究者たちがティムニット・ゲブル氏への支持を表明した。

今後もグーグルと研究者たちの激しい攻防は続くのか。今後の動向に注目したい。