アップルiPhoneで子どもの「裸の自画撮り被害」をAIで防止

このエントリーをはてなブックマークに追加

画像はぱくたそより

株式会社ドリーム・トレイン・インターネットは2月16日、通信サービス「トーンモバイル」において、人工知能(AI)を活用することで、iPhoneの標準カメラでの「自画撮り被害」を防止する「TONEカメラ (for iPhone)」を発表した。

東京都都民安全推進本部によると、自画撮り被害とは「だまされたり、脅されたりして18歳未満の子供が自分の裸体等を撮影させられたうえ、メール等で送らされる被害」を指す。

同サイトでは、「SNSで親しくなった人を信じて裸の画像を送ったら、ネット上で公開されてしまった」「『画像をアップするぞ』とおどされ、呼び出されてひどい目にあった」などという被害事例があると書かれている。

今回、同社が発表した「TONEカメラ (for iPhone)」では、iPhone標準カメラやそのほかのカメラアプリに対応し、自画撮り被害の抑止を目的として、裸やそれに近い服装など、撮影時にAIが不適切な画像と判定した場合には、シャッターを切る、もしくはスクリーンショットした際に、画像が本体および各種クラウドサービスに保存されなくなる。本機能ではオンデバイスAI技術を採用しており、AIでの判断は端末本体で処理されるので、プライバシーは守られるという。

また、「TONE見守り」と連携し、子どもが「TONEカメラ (for iPhone)」で不適切な画像を撮影した場合、保護者の見守りアプリで通知を受け取ることも可能。通知内容には「日時」「モザイクされたサムネイル」「位置情報」が含まれる。見守り端末へ通知される不適切画像は、その通知のみで使用し、撮影端末や見守り端末、サーバーのどこにも保存されないとのこと。

コロナ禍は不適切画像・動画撮影の検知数が増加

ドリーム・トレイン・インターネットが開発した家族向け見守りサービス「あんしんAI」の利用データをもとに、コロナ禍の自粛生活や長期休暇によるスマホ利用環境の変化を調査したところ、4〜5月の自粛生活や夏休み、冬休みなどの長期休みにおいて、不適切画像・動画撮影の検知数が増加しているとわかった。

さらに、昨今では、ポルノ被害と性暴力を考えるNPO法人が、アップルとグーグルに対して、スマホの標準機能として、性的な画像を撮影させないAIを搭載することを要望しようとしているなど、スマホに保存された画像による性被害は技術的な対策が求められている状況と言える。

ドリーム・トレイン・インターネットはこのような状況を受け、2度目の緊急事態宣言による自粛生活や、春休みを迎えるにあたり、子どものスマホ利用環境問題への緊急対応として、「TONEカメラ (for iPhone)」を発表したとしている。

>>ニュースリリース

子どもの「裸の自画撮り被害」をAIで防止する格安スマホが発売

ドリーム・トレイン・インターネットは2020年2月20日、AIによって裸などの自画撮り被害を防ぐカメラを搭載したスマホ「TONE e20」を発売している。詳細は以下の記事をチェックしてほしい。