先週、Googleアシスタントによる電話予約代行機能「Google Duplex」のテストが今夏からアメリカで開始すると発表されました。
このGoogle Duplexが、音声がリアルすぎて、詐欺などに悪用されるのでは?と物議を醸していたりします。そこで、ここまでにどういった経緯があったのか、AI活用の倫理的な問題なども含め簡単にまとめてみます。
Google Duplexって?
Google Duplexとは、Googleアシスタントによる電話予約代行機能です。Googleが年に一回開催する開発者向け会議「Google I/O」で発表されました。
なんと言っても驚きなのが、会話の自然さ。こちらのデモを見ればその凄さが伝わると思います。
どちらがAIかわからなくなるくらい自然ですよね。
自然すぎるがゆえに詐欺などに悪用される可能性もあるため、倫理的な面で物議を醸していたようです。
AI利用におけるガイドラインを発表
また2018年3月、 GoogleがAI技術をアメリカ国防総省の軍用ドローン開発プロジェクトに提供する計画が発覚しています。AIの軍事転用はGoogleの基本理念「Don’t be evil(邪悪になるな)」に真っ向から対立するため、社内でもかなりの批判があったよう。
そこにGoogle Duplexの問題も発生し、Googleとしては何らかの対策が必要でした。
そこでGoogleは6月7日、「AI at Google: our principles」を発表。GoogleにおけるAIの利活用に関するガイドラインを制定しました。内容としては下記の通り。
2. 不公平なバイアスの発生、助長を防ぐ
3. 安全性確保を念頭においた開発と試験
4. 人々への説明責任
5. プライバシー・デザイン原則の適用
6. 科学的卓越性の探求
7. これらの基本理念に沿った利用への技術提供
社会にとっての有益さ、安全性の確保や人々への説明責任といった項目が明記されています。このガイドラインによって、GoogleはAIを安全に、かつ社会にとって有益となる使い方をしよう、というスタンスが確立されたことに。また、軍事転用の契約も、2019年をもって契約を更新しないとも発表しています。
アメリカでテストが今夏から開始
リアルすぎて「中の人がいるのでは?」とも疑われていたGoogle Duplexも、2018年夏からアメリカでテストが始まるということで、偽物の疑いを晴らせそうです。
またテストの際には、
- 最初にAIだと名乗り、会話を録音する旨を通知
- ユーザー側に拒否された場合は人間のオペレーターに引き継ぐ
というオペレーションが追加されたとのこと。下記からムービーで確認できます。
Googleでも苦戦するAIの倫理的な難しさ
軍事転用やDuplexほどスケールの大きな話でなくとも、AI活用において倫理的な問題は常に絡んできます。
- 映像認識におけるプライバシーの問題
- AIが誤った判断をした場合の責任
- AIのアウトプットを出す仮定がブラックボックスな場合の説明責任
などの問題も山積しています。
技術が発展するにつれてより複雑な問題も発生するかもしれません。今回Googleがガイドラインを示したことで、倫理的な問題に対する対処としてガイドラインや、一定のルールを制定する流れは今後も加速するでしょう。
すでに海外ではPartnership on AIや、日本では人間中心のAI社会原則検討会議などの業界団体もでき始めています。
また、少し前に話題になったMicrosoftのAIボット「Tay」がネットユーザーの言葉を学習して差別発言ばかりするようになってしまったように、AIに人間の判断を代替させるような使い方をする場合、人間とAIが判断基準を共有していることが前提になります。
そうでない場合、マン・イン・ザ・ループ方式で人間の判断を必ず挟むなどのアクションはどうしても必要になってきます。
まだまだAIは人間を超えるものではないと認識することが重要ですね……。引き続き動向を追っていきます。