Yahoo!ニュース、不適切なコメントをするアカウントをAIで13.5%減少

このエントリーをはてなブックマークに追加

不適切な投稿を繰り返しているユーザーに掲出する、投稿時の注意メッセージ



ヤフー株式会社は2月16日、「Yahoo!ニュース」のコメント欄において、不適切なコメントを繰り返し投稿しているアカウントが、2020年7月からAIを活用して取り組んでいる投稿時の注意メッセージ掲出により、掲出直後と比較して13.5%減少したと発表した。

Yahoo!ニュースは、コメント欄の健全な言論空間を創出するため、専門チームによる人的なパトロールに加え、自社で開発した「深層学習を用いた自然言語処理モデル(AI)」を使い、誹謗中傷をはじめとする不適切な投稿を1日平均約2万件削除するなど、さまざまな対策を実施しているとのこと。

さらにYahoo!ニュースは2020年より、不適切な投稿の事前抑止にも注力しているという。同年7月には、パトロールに活用しているAI判定モデルを用いて「不適切である可能性が高い」と判定したコメントを過去数日以内に複数回投稿しているユーザーに対し、注意メッセージを掲出する取り組みを開始したとのこと。

Yahoo!ニュースは本取り組みの目的を、過去の投稿内容やこれから投稿するコメントの中に、乱暴な言葉づかいや他人を傷つける表現がないかなど、ユーザー自身にあらためて考えるきっかけを提供することだとしている。



実際、グラフを見ると、本取り組み開始直後の2020年8月と比較して、4カ月後の同年12月には、コメントを投稿したユーザー数が増加したのに対し、注意メッセージが掲出されたアカウント数は13.5%減少した。


左のグラフ:注意メッセージが掲出されたアカウント数(2020年8月と12月の比較)
右のグラフ:コメント欄における投稿ユーザー総数の日次平均

この結果から、本取り組みによって、不適切な投稿を繰り返すアカウントの減少に一定の効果があることがわかるとしている。

Yahoo!ニュースは今後も、コメント欄で投稿される多様な考えや意見によって、ユーザーがニュースに対する興味や多角的な視点を持つきっかけを提供するとともに、健全な言論空間を構築するために努めていくという。

>>ニュースリリース