光通信、映像伝送ビジネスの実務者向け専門情報サイト

光通信ビジネスの実務者向け専門誌 - オプトコム

有料会員様向けコンテンツ

AIに最適な量子化値を割り当てる低ビット量子化技術を開発【NEDO、OKI】

DX/IoT/AI 無料

従来比16分の1のビット数でも、認識精度の劣化を世界トップクラスの1.7%に抑制

 NEDOとOKIは6月21日、「高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発」において、AIの学習時に量子化値を最適に割り当てる低ビット量子化技術「LCQ(Learnable Companding Quantization)」を開発したことを発表した。
 同技術は、ディープニューラルネットワークの高精度モデルで、ビット数を32ビットから2ビットへと16分の1に圧縮しても画像認識精度の劣化を世界トップクラスの1.7%に抑えることに成功し、エッジ領域での演算負荷低減を実現する。

 NEDOとOKIは「今後、本技術を活用することで、エッジ領域での高精細な画像認識、さらには工場のインフラ管理や機器の異常検知など、演算リソースの限られたデバイスでのAI実装を目指す」との考えを示している。
 同成果はコンピュータービジョン業界トップカンファレンスの国際学会である「CVPR(IEEE/CVF Computer Vision and Pattern Recognition、期間:2021年6月19日~25日、オンライン開催)」に採択され、OKIが発表する予定だ。

概要

 ディープニューラルネットワーク(DNN)は、画像や音声などの認識において優れた性能を発揮する人工知能(AI)として注目されている。一方で、高い精度を得るためには大量の演算リソースや電力が必要なため、メモリや電力に制限のあるエッジデバイスへの組み込みには課題があった。そこで、演算負荷を下げるために、多くの乗算と加算により構成されるDNN演算を低ビットに量子化し、FPGAなど専用のハードウェア上で実行する技術の研究開発が行われてきた。しかし、これまでの先行技術では、量子化する前の値に対する量子化後の値(量子化値)をあらかじめ固定値として割り当てるため、2ビットなどの超低ビットへ圧縮すると固定値との誤差により認識精度が劣化し、実用化への障壁となっていた。
 こうした背景のもと、NEDOとOKIは、「高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発」(以下、本NEDO事業)において、DNNの学習時に、推論時の認識精度を維持するのに最適な低ビット量子化値を割り当てることができる低ビット量子化技術「LCQ(Learnable Companding Quantization)」を開発した。DNNの性能をはかるベンチマークとされる画像認識で高精度モデルを32ビットから2ビットへと16分の1に圧縮した場合、先行技術では認識精度に約3%の劣化が生じるのに対し、LCQを適用することでこれを1.7%と非常に小さく抑えることに成功し、世界トップクラスの認識精度を達成した(図1)。

図1:LCQによる量子化時の認識精度

今回の成果

 NEDOとOKIは音声符号化分野でよく扱われる非線形量子化技術Compandingを応用したLCQにより、DNNの学習での量子化値を柔軟に割り当てることに成功した。
 LCQではDNNの誤差勾配に基づいて圧縮関数と伸張関数を学習し、これを反映した量子化処理を行うことで(図2)、非線形な量子化関数が構築され、最適な量子化値を割り当てることが可能となる(図3)。低ビット量子化時の課題となっていた認識精度の劣化を抑制できるだけでなく、2ビットなど超低ビット量子化で高い効果を発揮することが確認でき、演算リソースが限られるエッジデバイスへのAI搭載が可能となる。

図2:LCQの概念図

図3:LCQによる量子化関数

今後の予定

 OKIは「本成果と本NEDO事業でOKIが開発したDNN演算数の削減が可能なAI軽量化技術PCASを組み合わせ、演算負荷低減と演算数削減の両方の効果を得る技術の開発に取り組み、エッジ領域での高精細な画像認識、さらには工場のインフラ管理や機器の異常検知など、演算リソースの限られたデバイスでのAI実装を目指す」との方針を示している。