インターネット環境がなくてもエッジ(モノ側)でAIを動かせるエッジAI。AI導入時に直面する「消費電力」「コスト」「インターネット環境」などの資源や環境による制約を軽減することができます。
2019年2月27日にLeapMindが開催したEdge Deep Learning Summit(EDLS)では、エッジAI導入の事例が紹介されました。
日本航空株式会社 デジタルイノベーション推進部 部長
中岸 慶太
川崎重工業株式会社 車両カンパニー 事業開発本部 新事業推進部 新事業推進課
石田 貴行
国立研究開発法人 宇宙航空研究開発機構 研究開発部門 第一研究ユニット 研究開発員
JAL:空港という特殊環境下でAIを活かす
最初に講演したのは、日本航空 斎藤 勝氏です。
先端技術として話題になっているAIを勉強するために、まずは使ってみようと始めたのが、赤ちゃん連れのハワイ旅行者をターゲットとするチャットボットでした。試行錯誤しながら開発を進める中で、AIの得意な分野、苦手な分野を把握できたといいます。
「特徴量を見つけたり、五感の代替として認知させたりするのがAIの得意分野だと、チャットボットの開発を通じて学びました。AIを他の業務にも役立てようと、チャットボット以外にも、故障予測分析や航空機部品の画像診断などに取り組んでいます」
「日々、飛行機から多くのデータを取得しますが、特徴量がなにを示しているのか理解できなければ、データは無駄になります。理解を深めるため、現場の整備士とデータサイエンティストが一緒にデータ分析に取り組みました。
離着陸時に伸展する機体のフラップという部分は、実際には左右同時に動いていても、それぞれの位置を計測しているセンサーの値に差異が生じると作動を停止してしまいます。そこで、進展時の左右の値のズレ(遅れ)に着目して分析を進めると、近々センサーが故障するというサインだと判明し、機体の整備に役立っています」
データサイエンティストに分析を丸投げにせず、現場をよく知る担当者と協働することが、課題を解決するカギだといいます。
バーチャル空間のデータだけでなく、画像やセンサーを使い、リアル空間でのAI活用も進めているそう。
「エンジンの中のファンブレード(エンジンの前面に放射線状に並んでおり、扇風機のように回転する部分)の点検時、ファイバースコープ(狭い隙間から内部を観察する道具)を使い、傷などを確認しています。
この点検に画像処理を取り入れ、どの傷が怪しいとか、何枚目のファンに傷があるのかなどを整備士とAIが協働で判定することにも取り組んでています」
AIによる判断は完璧ではありません。完全にAIに任せるのではなく、人間とAIが一緒に判断をすることで、これまで人間が行っていた作業の効率化に成功しています。
「空港や機体整備場という特殊な環境では、状況変化に俊敏に対応するため、AIと現場スタッフの協働が必須です。AIをうまく現場に組み込み、新しい空港体験を提供していきます」
川崎重工:現場第一のAI導入
続いて、川崎重工業 中岸 慶太氏が、電車の車両製造現場でエッジAIを活用している事例について語りました。
川崎重工業ではバイクや飛行機、ロボットなどを製造しており、中岸氏の部署では電車の車両を製造しています。
「現場では日々膨大な量のデータが生まれています。データの解析結果を、現場ですぐに使える『生きた情報』にいち早く変えることを目指しています」
近年、多くの駅で事故防止のホームドアが設置され、車両ドアに挟まった物(戸挟み物)の目視確認が難しくなりました。中岸氏のチームでは、戸挟みの検知に画像認識が使えないかと考えたのだといいます。
普段何気なく目にする電車ドアの開閉も、撮影すれば立派なデータです。
「ドアが閉じてから運転士がハンドルを操作するまでは約2秒と、短い。そのため、戸挟み検知に画像認識技術を実用化するには、応答性が必要です。エッジ処理の特徴がもっとも活きるポイントが、この応答性です」
認識したデータをエッジ側で処理することで、インターネットの通信環境に左右されず、画像から戸挟み物の検知に成功しています。
現場のデータを最大限に活かすには、現場をよく知るエンジニアが画像の収集、前処理、検証をするのが大切だと中岸氏は語ります。
「製造現場では『現場で、現物をみて、現場を判断する』ことが大切です。現場が人手不足だからといって、チェックの質は落とせません。
人の目が欠かせないポイントとして、電車下部のラッチハンドル(錠ができるハンドル)の閉じ忘れチェックがあります。
車両下部にある機器箱点検蓋から絶対に物が落ちないよう、ラッチハンドルは必ず閉じなければいけません。現場では、トリプルチェック以上をして閉め忘れ防止対策がされています」
この手間がかかるダブルチェックや目視確認に画像認識が使えないかと考えたそう。
ラッチハンドルが閉じているか画像で判断できるよう、画像データを集めることから始めましたが、照明の反射や背景の誤認識が多く、うまく行かなかったといいます。
「そこで、認識がしやすいようにハンドルに色をつけたり、蓋側に色をつけたりと、ハンドル自体に工夫を施しました。すると、画像認識の推論モデルを変えずとも、AIがハンドルの開閉を認識可能になりました」
画像認識技術を使う前提で製品が作れるのは、製造業の強み。「このアドバンテージを生かして、今後のさらなる技術進歩にも柔軟に対応していきたい」と中岸氏は語っていました。
JAXA:宇宙での自撮りにAI導入
セッション最後の講演は、宇宙航空研究開発機構(JAXA) 石田 貴行氏です。宇宙開発にAIを導入する難しさを語りました。
「宇宙航空研究開発機構(JAXA)は、『探査機の知能化』をテーマに、LeapMindのプロダクト(DeLTA-Family)を活用した取り組みを進めています。
指定された場所へのピンポイント着陸が月面探査機に求められるなど、近年の宇宙探査ミッションは高度化しています。画像認識技術を利用し、探査機のカメラでリアルタイムにクレーターを検知し、着陸地点を推定するなどの研究を進めています」
しかし、宇宙探査ミッションが高度化しているにも関わらず、「宇宙における計算処理の環境は地上に比べると決して良くない」といいます。
「宇宙空間は真空状態のため、熱環境が地球上とはまったく違います。太陽光が当たれば温度は100度を超えるし、当たらなければ0度を下回る。使える電力は小さいコンポーネントであれば5W以下になる場合もあり、さらに打ち上げの振動にも耐えなければいけません」
加えて、宇宙用のCPUは放射線対策等、宇宙固有の技術導入をする必要があることから、3-4年の開発期間を要し、また民生先端CPUと比べると性能的には2-3世代前のものとなります。
計算処理の環境が悪い宇宙機でディープラーニングを搭載するには工夫が必要となるため、まずは実験的な取り組みから始めようと、宇宙空間で探査機が「自撮り」することを模擬した検討を開始したそうです。
「宇宙機から切り離した小型カメラからで探査機を自撮りするのですが、すべての画像を地上に送ると、通信量が莫大になります。カメラに組み込んだエッジAIで一番良い自撮りを判断し、そのベストショットだけを高画質で地上に送れば、通信量も通信時間も少なくて済みます」
「ディープラーニングには大量の教師データが必要ですが、ネット上に宇宙空間での自撮りのデータはほとんどありません。そこで、模型を使って約1万枚の自撮りサンプルを撮影し、人間の手で地道に自撮りをスコアリングし、一番スコアが高い写真をベストな自撮りとしました。
具体的には、月と探査機(自分)の全体が写っていればスコアが高く、探査機全体が写っていない、そもそも何も写っていない場合はスコアが低くなるという具合です」
その結果、人間と同程度の精度で自撮りをスコアリングできるようになったとか。将来的には宇宙機のさらなる知能化を目指し、探査機での月面クレーターの高精度検出や衛星の異常検知にも応用を進めたいと考えているそうです。
イベントでは、まだ世の中に多くないエッジAIの活用事例が紹介されました。あらゆる場面でディープラーニングの浸透が進んでいます。