マイクロソフト、ディープフェイクを見破るAI技術を発表

このエントリーをはてなブックマークに追加

米マイクロソフトは9月1日、2020年11月3日のアメリカ合衆国大統領選挙を前に、容易に見抜けないほど作り込んだニセ物の動画「ディープフェイク」を見破る「Microsoft Video Authenticator」を発表した。

ディープフェイクは、Aさんの顔を数万点ものパーツに分解し、表情ひとつひとつに人工知能(AI)がディープラーニング(深層学習)という手法を用いることで、Bさんの顔をAさんの顔にすり替えて顔の表情を自然に動かすというもの。

微妙な色の違いや色あせからニセ物を検出

今回、米マイクロソフトが発表した「Microsoft Video Authenticator」は、米マイクロソフトのAIチームなどが開発したもの。写真や動画を分析し、人間の目ではわかりづらい微妙な色の違いや色あせを検出することで、メディアが人為的に操作されたかどうか「信頼度スコア」を提示できる。なお、動画の場合は、動画の再生時にフレームごとにリアルタイムで信頼度スコアを提供する。

ディープフェイクの有名な例としては、有名人の顔を入れ替えたポルノ動画や、バラク・オバマ前大統領が「トランプ大統領は救いようのないマヌケだ(President Trump is a total and complete dipshit)」と酷評しているニセ物の動画などが挙げられる。

11月3日のアメリカ合衆国大統領選挙の前にも、ディープフェイク動画がアメリカ社会を揺るがすと考えられる。今後、「Microsoft Video Authenticator」などの技術はディープフェイクに対抗できるのか。Ledge.ai編集部では、今後の動向に注目したい。

>>ニュースリリース