マカフィー、ディープフェイクの疑いがある動画をAIで分析

このエントリーをはてなブックマークに追加

米マカフィーは10月20日、最新の人工知能(AI)を活用することで、容易に見抜けないほど作り込んだニセ物の動画「ディープフェイク」の疑いがあるものを分析する「McAfee Deepfakes Lab」の設立を発表した。

ディープフェイクは、Aさんの顔を数万点ものパーツに分解し、表情ひとつひとつにAIがディープラーニング(深層学習)という手法を用いることで、Bさんの顔をAさんの顔にすり替えて顔の表情を自然に動かすというもの。

2020年11月3日のアメリカ合衆国大統領選挙をはじめ、今後の選挙において、候補者や政党を中傷するニセ情報の拡散に利用される恐れがある。さらに、当事者や有力な報道機関が動画に異議を唱える間もなく、ソーシャルメディア上で拡散される可能性も否めない。

今回、マカフィーが発表した「McAfee Deepfakes Lab」では、報道機関やソーシャルメディアプラットフォームの管理者が疑わしい動画を同機関に提出すると、マカフィーは動画の信憑性の評価し、検出スコアとヒートマップを提供してくれる。

なお、動画の評価にあたっては、データサイエンスの専門知識と、コンピュータビジョンおよび隠れたパターンを読み解くディープラーニング技術を組み合わせた自社ツールを活用している。

「私たちは長い”ディープフェイクとの攻防”の渦中にいる」

マカフィーのシニア バイス プレジデント兼最高技術責任者(CTO)を務めるスティーブ・グロブマン氏は本発表にあわせて、「この手の偽情報を封じ込めるためにはテクノロジーだけでなく、自己啓発が欠かせません。残念ながら、私たちは長い”ディープフェイクとの攻防”の渦中にいるのです」コメントを寄せている。全文は以下のとおり。

──スティーブ・グロブマン氏

「フェイク動画は、選挙期間中、セキュリティと偽情報に関する多くの重大な懸念をもたらすでしょう。最新のAI技術を使用することで、あらゆる分野の悪意ある攻撃者が、候補者がしてもいない言動をあたかもしているかのような、ディープフェイク動画を作成することができるようになりました。

このような偽のビデオ映像が大統領選投票日の11月3日以前に流布され、有権者を特定の行動に仕向ける恐れがあります。McAfee Deepfakes Labはマカフィー独自のAI機能により、マスコミ各社が偽情報を特定し、対策を講じるよう支援することで、有権者が惑わされるのを防ぎます。

AIの進歩によりこれらの動画作成が容易になったことで、この手の偽情報を封じ込めるためにはテクノロジーだけでなく、自己啓発が欠かせません。残念ながら、私たちは長い”ディープフェイクとの攻防”の渦中にいるのです。

私たちは、本人とは違う見栄えやキャラクターに加工した”フォトショップ”画像には馴染みがありますが、ディープフェイクで加工された偽動画についても同じように熟知する必要があります。奇妙なものに出会ったら、その出処を疑い、本物かどうかを見極めてください。

それが予防線となって、個人や社会に与えるであろう損害を抑えることができます。McAfee Deepfakes Labはその一方で、私たちを騙そうとする悪意ある攻撃者たちに後れを取らないようにサポートします」。

>>ニュースリリース

マイクロソフト、ディープフェイクを見破るAI技術を発表

ディープフェイク対策と言えば、米マイクロソフトも9月1日に発表した、ディープフェイクを見破る「Microsoft Video Authenticator」にも注目してほしい。

「Microsoft Video Authenticator」は、マイクロソフトのAIチームなどが開発したもの。写真や動画を分析し、人間の目ではわかりづらい微妙な色の違いや色あせを検出することで、メディアが人為的に操作されたかどうか「信頼度スコア」を提示できる。なお、動画の場合は、動画の再生時にフレームごとにリアルタイムで信頼度スコアを提供する。