フェイクコンテンツの真偽判定する技術「AIによるウソ発見器」を発表 岡山大学

このエントリーをはてなブックマークに追加

国立大学法人岡山大学は5月27日、同大の最新の研究成果を発信するWebコンテンツ「FOCUS ON」で、フェイクコンテンツの真偽判定技術を発表した。

アナログの時代から、合成写真をはじめとするウソの情報によって、プロパガンダなどの情報操作が問題となっている。現代ではウソの情報を創造するために、悪意のある者がAI技術でフェイクコンテンツを作成し、ソーシャルメディアサービスを介して発信することで広く拡散される可能性がある(ディープフェイクなど)。

従来の合成写真の場合、高度に経験を積んだ専門家が光や影の位置、不自然な境目の存在などを目視によりチェックして、確認していた。

図1 精巧に作成されるフェイクコンテンツ

しかし、図1に示すように、AI技術により人工的に作成されたフェイクコンテンツの場合、人の視覚や聴覚だけでは見破ることが困難となりつつある。

このような問題に対応すべく、合成技術とは反対の方向として「人工的に創造されたコンテンツ」と「正常に撮影されたコンテンツ」を判定する技術(“AIによるウソ発見器”と呼んでいる)の開発が急務となっている。

本研究プロジェクトでは、音声・映像データの真偽判定技術により、ウソの情報によるプロパガンダの拡散を防ぐことを目指している。

公式な記者会見などの映像は、公開前に内容の確認も含めて悪用されない処理がなされることを前提として考える。その処理において、原本性を保証するための情報(暗号技術で用いられるような電子署名)を忍ばせておき、その情報を検証することで加工・編集の有無を確認する方法を考案しているという。

図2 顔検出と特徴点領域の解析による真偽判定

たとえば図2に示すように映像中の唇の動きを特徴成分として抽出し、対応する音声信号に忍ばせた情報を検証し、コンテンツ中の不自然な動きが含まれていないかを調べる。

二種類の電子透かし技術(※)を組み合わせて頑強な信号と脆い信号の両方を適用することで、二段階の検証を可能としており、映像の加工・編集の有無と、音声との関係性の確認のそれぞれの用途に使い分けている。

(※)電子透かし技術:マルチメディアコンテンツに対して、その品質をあまり損なうことなく副情報を忍ばせることを可能とする技術。簡単に取り除けない頑強な手法は著作権保護などへの応用、コンテンツの変化に対して脆い手法は改ざん検知などへの応用がある。

しかし、マスコミにおける編集権も考慮して、部分的に切り出した動画は正常な編集権の範囲内であることを認める技術的な解決が必要だろう。本手法を用いれば、切り出す開始点や終了点の選択を柔軟に認める編集権の付与を考慮することが可能だ。

ただ、本人の音声の一部分を切り取って、同じコンテンツ内の別の映像フレームに移植するような加工の場合、その音声は本人のものであるため、個々の時間枠内のみで検証を行うだけでは真偽判定は不十分となる。

そのため今後は、音声信号と映像信号の両方が揃っていることまで確認する手法に拡張させることを検討していく予定だ。

本プロジェクトと並行し、事前の対策がなされておらず受け身的に対応せざるを得ないコンテンツにおいて、加工・編集によって生じた不自然な信号成分を解析するマルチメディアセキュリティ技術にも注目して研究を進めているという。

>>ニュースリリース