キーワードはオンデバイス。「Google I/O 2019」で発表されたAI関連注目トピックまとめ

このエントリーをはてなブックマークに追加

Googleは日本時間の5月8日に、アメリカはサンフランシスコで開催中の開発者向けイベント「Google I/O 2019」を開催。Google Pixel 3aや、Nest Hub、Nest Hub Maxなど注目の発表があった。本稿では、AI関連で注目すべきトピックをまとめた。

オンデバイスでの機械学習を可能にするFederated Learning

基調講演で気になったのは、「オンデバイス」というキーワードだ。

機械学習を使用する諸々の機能を、オンデバイスで完結させることを繰り返し強調していた。機械学習の処理を可能な限りデバイス上で行うことで、プライバシーとセキュリティの担保と、処理速度を上げるのが狙いだ。

Googleはこれまでも、プライバシーとセキュリティを担保する機能を出していた。Google Chromeのシークレットモードなどがその一例だ。加えて、昨今相次ぐ情報漏えいの事件もあり、今回はよりプライバシーとセキュリティを担保しようとする姿勢が見て取れた。

機械学習のオンデバイス処理を可能にするのが、Googleが注力する機械学習のアプローチ「Federated Learning」だ。

通常、機械学習モデルの学習を行う際は、デバイスで収集されたデータはクラウドを通してデータセンターへ転送される。そのため、データのプライバシーは担保されづらく、遅延も発生する。

Federated Learningでは、個々のデバイス上で機械学習モデルの学習が行われ、モデルはパーソナライズされていく。そして、ユーザーから収集されたデータは個人が特定できないように抽象化された後、親モデルに適用される。

この方法で、プライバシーを確保しつつ、スマートにモデルの運用ができるようになる。

「説明可能なAI」へ近づくTCAVという技術

講演を通してどのスピーカーも強調していたのが「みんなのためのGoogle」だ。それを実現するためにAI、機械学習におけるバイアスを把握し、なくすことが重要だ、と語られた。

バイアスを排除するため、GoogleはTCAV(Testing with Concept Activation Vectors)という技術を研究している。

ディープラーニングにおいて、モデルの判断の根拠を説明することは、その内部の複雑さゆえに容易ではない。TCAVは、分類においてどの特徴が重要視されているのかを可視化する。すなわち、あるモデルにバイアスがどの程度あるのかを把握できるという。

上図でいえば、シマウマの分類器において、「縞」「馬」「サバンナ」という特徴があったとき、どの特徴がどの程度、分類において重要視されているのか、を可視化している。

TCAVの研究が進めば、「説明可能なAI」がより近づく。注目したい研究だ。

もう「OK Google」はいらない。次世代音声アシスタント

Google Assistant関連でも発表があった。

Googleは、かつて100GBあった音声認識のモデルを0.5GB(約500MB)まで軽量化に成功。基調講演では、「OK Google」などのウェイクワードなしで、さまざまなアプリを横断し、ユーザーをサポートするデモが紹介された。2019年後半に発表予定のGoogle Pixelに搭載される。

また、昨年の同イベントで大々的に発表された「Google Duplex」でもアップデートがあった。これまでDuplexは電話対応に特化していたが、新たにwebに対応。店舗の予約に必要な情報(名前、電話番号など)を自動で埋め、予約を完了してくれる。こちらは年内に詳細発表予定とのこと。

自動字幕、文字起こしも。AIでアクセシビリティをさらに加速

発表されたAI機能にはアクセシビリティを補完するものも多く、すべての機能をすべての人にアクセス可能にするという明確な姿勢を打ち出していた。

ここでは、音声認識関連で発表された3つの機能、1つのプロジェクトを紹介する。すべてがオンデバイスで動く、圧巻の音声認識技術を感じられる。

Live Transcribe

話者の発話をリアルタイムで文字へと変換する機能。聴覚障害者のコミュニケーションが容易になる。

Live Caption

再生した動画に自動でキャプション(字幕)を付ける機能。聴覚障害者が、より簡単に動画メディアを楽しめるようになる。

Live Relay

電話での応答を文字起こしし、文章で応答できる機能。発話に難を抱える人でも、電話という手段を使用できるようになる。

Project Euphonia

ALSや脳卒中の後遺症など、発話が不自由な人の発話をAIでサポートするプロジェクト。発話障害者の発話をAIで学習し、発話を可能にしたり、ALS(筋萎縮性側索硬化症)患者が表情でコミュニケーションをできるようにする。

発話データについてはデータが不足しており、こちらからデータ提供者を募集している。

Googleが目指す未来

基調講演は日本時間で夜中の2時から始まった。眠い目をこすりながら聞いていて感じたのは、Googleの目指す未来の明確さだ。

過去から未来に至るまで一貫して、最新技術を活用した便利な機能を、「すべての人に届ける」こと。AI、機械学習の研究もそのためにあり、Googleはすべての人の“便利さ”へのアクセスというゴールに徹底的に奉仕する。

ビジネス観点では、Federated LearningとTCAVは注目すべきだろう。特にTCAVは、まさに今、日本のビジネス現場でも需要が高まる「説明可能なAI」に直結するからだ。AIが下す判断の根拠が分かれば、クライアント、上司といったステークホルダーへの説明責任が求められるビジネスの現場でも、AIがより実用に足るものになる。今後も注目したい。