学術&研究
スタンフォード大学、シンプルに論理ゲートのみで構築した超省エネなニューラルネットワークを開発
2024年12月10日から15日にカナダ・バンクーバーで開催された「神経情報処理システム(NeurIPS)2024」で、スタンフォード大学の研究チームがエネルギー消費を大幅に削減する新しいニューラルネットワークの手法を[発表]{target=“_blank”}した。 この技術は、コンピューターチップの基本要素である論理ゲートだけを用いてニューラルネットワークを直接構築するもので、従来のソフトウェアベースのアプローチに比べて数十万分の一の消費電力を実現するという。 ## 大幅な省エネと高精度を両立 研究の中心人物であるスタンフォード大学のフェリックス・ピーターセン(Felix Petersen)博士は、「論理ゲートネットワーク(Logic Gate Network)」と呼ばれる手法を開発。入力データをビット単位(0/1)で処理し、論理演算によって推論を行う。 畳み込みニューラルネットワーク(CNN)の構造を真似しつつも、加算や乗算を極力排し、ハードウェアの論理演算に直接置き換えることで大幅な省電力化を達成した。 **図:CIFAR-10における論理ゲート数と精度の比較** LogicTreeNetモデルは、86.29%の精度を達成しつつ、同等精度の従来モデルと比較して29倍少ないゲート数(わずか6100万)で動作している。 ![Gate count vs accuracy plot on the CIFAR-10 data.jpg] :::small 画像の出典:[Convolutional Differentiable Logic Gate Networks]{target=“_blank”} ::: 横軸が論理ゲートの数(ハードウェア上で使われる演算数に相当)で、縦軸が画像分類の正答率を示す。同研究(緑色の星マーク)は、右上の高精度帯に対して大幅にゲート数を抑えていることがわかる。実際、研究チームのネットワークは、同等の認識性能を持つ従来モデルの1/29以下のゲート数で動作し、省エネルギー化への大きな可能性を示した。 ## 論理ゲートを「ニューラルネットワーク」に組み立てる技術 論理ゲートはANDやOR、XORなど、わずかなトランジスタで構成されるデジタル回路の最小単位である。これらをツリー状につないでいくことで、複雑な判断ロジックを段階的に作り出す。 従来のAIモデルでは、加算や乗算を多用する「行列演算」が中心となるが、研究ではそれらを直接「論理演算」に置き換えたという。 **図:「論理ゲートネットワーク」が実際にどのように動作するかを示した概念図**:各ノードは論理ゲートを表し、学習によって最適な構造が構築される ![fig2 Architecture of a randomly connected LGN.jpg] :::small 画像の出典:[Convolutional Differentiable Logic Gate Networks]{target=“_blank”} ::: 各ピクセル情報をビットとして入力し、段階的にゲートを通すことで最終的なクラス(パンダ/ホッキョクグマ)の判定を行う。従来のソフトウェア的な重みパラメータの代わりに「どの論理ゲートを選ぶか」を学習することで、非常に効率的な回路構成を実現している。 ## 畳み込みとプーリングの工夫 研究の目玉は、画像認識に有効とされる畳み込み演算(Convolution)やプーリング演算を、論理ゲートの世界に落とし込んだ点にあるという。具体的には、ツリー状の論理ゲートを「カーネル(フィルタ)」として機能させ、最大プーリングの代わりに「論理和(OR)」プーリングを導入するなど、デジタル回路レベルでCNNに近い振る舞いを再現した。 **図:一般的なCNNの演算(左)と、論理ゲートを使った同研究のアプローチ(右)の対比** 加算・乗算の代わりに「ANDやORなどのゲート」を選択的に組み合わせることで、同様の機能を持つ回路を直接生成している。 ![Figure 3 Conventional convolutional neural networks.jpg] :::small 画像の出典:[Convolutional Differentiable Logic Gate Networks]{target=“_blank”} ::: ## 今後の展望――エッジデバイスでのAI活用が加速か 最大の課題は、ネットワークを訓練(学習)する段階で、従来のニューラルネットワークと比較して数百倍程度の時間がかかる点だという。 しかし、一度学習が完了すると、その後の推論フェーズでは大幅にエネルギー消費を削減できるのが強みとなる。これにより、バッテリー駆動のモバイル端末やドローン、組み込みシステムなどエッジAI分野への応用が期待されているという。 ピーターセン博士は、この技術の将来性について次のように述べている。 >「スマートフォンやドローンなどのモバイルデバイスにこのネットワークを直接組み込むことで、クラウドに依存せずにAI機能を実行できるようになる。これにより、データ通信量とエネルギー消費をさらに削減できる可能性がある」 さらに、デバイス自体がデータ処理を担う「エッジコンピューティング」において、低消費電力かつ高速動作が求められる分野での活用に期待できるとのこと。 :::box [関連記事:ミネソタ大学 メモリセル内で直接計算を行う「CRAM」で、AIの消費電力を最大2500分の1に削減] ::: :::box [関連記事:AIの性能「光ニューラルネットワーク」で革命起きるか エネルギー効率100倍に改良] :::