沖電気工業株式会社(OKI)は6月21日、国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)と、「高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発」において、AIの学習時に量子化値を最適に割り当てる低ビット量子化技術「LCQ(Learnable Companding Quantization)」を開発したことを発表した。
本技術は、ディープニューラルネットワークの高精度モデルで、ビット数を32ビットから2ビットへと16分の1に圧縮しても画像認識精度の劣化を世界トップクラスの1.7%に抑えることに成功し、エッジ領域での演算負荷低減を実現するものだ。
>> プレスリリース
高精度モデルを32ビットから2ビットへ圧縮 劣化はおよそ1.7%
ディープニューラルネットワーク(DNN)は画像や音声などの認識において優れた性能を発揮する人工知能として注目されている。しかし、高い精度を得るには、膨大な演算リソースや電力が必要なため、メモリーや電力に制限のあるエッジデバイスへの組み込みには課題があった。
そこで演算負荷を下げるために、多くの乗算と加算によって構成されるDNN演算を低ビットに量子化し、FPGA (Field-Programmable Gate Array、製造後に設計者が再構成可能な集積回路)など、専用のハードウェア上で実行する技術の研究開発が進められていた。だが、これまでの先行技術では、量子化する前の値に対する量子化後の値である量子化値をあらかじめ固定値として割り当てるため、2ビットなどの超低ビットへ圧縮すると固定値との誤差によって認識精度が劣化し、実用化への障壁となっていた。
なお、ここで指す「ニューラルネットワークの量子化」とは、演算の入出力を細かい値から粗い値に近似することで演算負荷を低減する技術のこと。一般に、細かい値を使う方が認識精度は高くなるが、多くのビットが必要となり演算負荷が上がる。
そこで、OKIとNEDOは、高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発において、DNNの学習時に、推論時の認識精度を維持するのに最適な低ビット量子化値を割り当てることができる低ビット量子化技術「LCQ(Learnable Companding Quantization)」を開発した。
DNNの性能を図るベンチマークである画像認識において、高精度モデルを32ビットから2ビットへ圧縮した場合、先行技術では認識精度に約3%の劣化が生じる対し、LCQを適用することで1.7%の劣化にまで抑えることに成功した。プレスリリースでは、この結果を世界トップクラスの認識精度といっている。
エッジ領域など演算リソースが限られたデバイスへのAI実装に
同プレスリリースによると、LCQを活用すれば、低ビット量子化時の課題になっていた認識精度の劣化を抑制できるだけでなく、2ビットなど超低ビット量子化で高い効果を発揮することが確認されており、演算リソースが限られるエッジデバイスへのAI搭載が可能になるという。
LCQの概念図
LCQによる量子化関数
OKIは本成果と本NEDO事業でOKIが開発したDNN演算数の削減が可能なAI軽量化技術PCAS(=本NEDO事業においてOKIが開発した、ディープラーニングモデルの演算数を削減して軽量化する技術のこと)を組み合わせ、演算負荷低減と演算数削減の両方で効果を得る開発に取り組み、エッジ領域での高精細な画像認識、さらには工場のインフラ管理や機器の異常検知など、演算リソースの限られたデバイスでのAI実装を目指す。
>> プレスリリース