国産深層学習フレームワークChainerのv4.0.0がリリース。Intel CPUでの処理高速化に対応

このエントリーをはてなブックマークに追加

株式会社Preferred Networksが、深層学習フレームワーク「Chainer v4.0.0」をリリースしました。

Chainerおよび汎用配列計算ライブラリCuPy(クーパイ)は、最新の深層学習研究の成果が取り入れられた、6ヶ月ぶりのメジャーバージョンアップです。





Chainer

Chainerは、Preferred Networksが開発するPythonベースの日本製オープンソース深層学習フレームワークです。“Define-by-Run”の手法を通じて、ユーザーが簡単かつ直感的に複雑なニューラルネットワークを設計するための高い柔軟性とパフォーマンスが特徴。

最新版Chainer v4で、CPUでの学習およびニューラルネットワーク推論速度の高速化を実現

Chainer、Cupyのアップデートされた主な特徴がこちら。

Intelアーキテクチャ向け最適化

Intel Deep Learning Package (iDeep)に対応し、Intel CPUでの学習および推論の高速化が実現されたとのこと。

Preferred Networksのベンチマークによると、GoogLeNetでのCPU使用時の推論速度が従来比8.9倍に向上したとのこと。これまで、ニューラルネットワークの高速化はGPUでおこなうのが一般的でしたが、CPUでこれまで高速化したのは驚き。

AI開発における大きな課題なのがやはり“速度”。広く普及しているIntel CPUでの速度が短縮されることで、また一歩AIの可能性が広がりそう。

GoogLeNet

ILSVRC-2014 (ImageNet Large Scale Visual Recognition Challenge) の分類問題で優勝した画像認識用のニューラルネットワーク

NVIDIA GPU上での高速・省メモリな学習のための機能追加

NVIDIA TensorCoreをサポートし、畳込み演算を高速化。

TensorCoreは、210 億個以上のトランジスタを搭載した世界で最も強力なGPU アーキテクチャVoltaに搭載。

640 個の TensorCoreで、前世代の NVIDIA Pascalアーキテクチャの 5 倍以上の速度を実現しています。

CuPyのインストールが高速化

今回のバージョンアップでバイナリパッケージが提供されています。これにより、これまで約10分かかっていたインストール時間を、約10秒に高速化

二階微分をサポートする関数をさらに追加

Chainer v3から導入された二階微分のサポート範囲が広がり、最新のネットワークやアルゴリズムを記述する自由度がさらに向上されています。

もともと高い柔軟性が特徴のChainerですが、今回のバージョンアップで複雑なニューラルネットワークの設計・実装において、さらに力を発揮しそうです。

Chainerでの学習結果をCaffe 形式でエクスポートする機能を追加

今回実験的に追加された、Chainerの計算手順と学習した重みをCaffe形式でエクスポートする機能。

これにより、Pythonが動かない環境でもChainerの学習結果の利用が容易になります。

Chainer v4でより高速に。より自由に。

今回のChainerのバージョンアップの大きなポイントが、

  • Intel Deep Learning Package (iDeep)対応によるCPUでの学習および推論の高速化
  • NVIDIA TensorCoreのサポートによる、畳込み演算を高速化

という2つ。

また、公式によると、v3から記述方法はほとんど変わらないとのこと。移行も簡単ですね。

すでにChainerを利用してAI開発を進めている方、そしてこれからAIを開発しようと考えている方も、ぜひ最新の深層学習フレームワーク「Chainer v4.0.0」の実力を試してみてはいかがでしょうか。