Dynamic Distribution Pruning for Efficient Network Architecture Search (2019)

分類

 Neural Architecture Search

特徴

・構造探索の圧倒的な高速性。

アルゴリズム

 探索空間を動的にpruningする。

 探索空間はDARTSと同じで、全結合DAGによるnormal/reduction cellの組み合わせ。

 EMアルゴリズムライクにSGDで探索。

f:id:deconvo:20190610220807p:plain

エッジを表すone-hot vector;αを離散化したことで高速化。

探索初期ではvalidation精度は信頼できないため[1]、エポック数に従い悪いモデルを漸進的にpruningしていく方法を採用。

誤差上限を理論的に与えた。

f:id:deconvo:20190610221844p:plain

[1]Chris Ying, Aaron Klein, Esteban Real, Eric Christiansen, Kevin Murphy, and Frank Hutter. Nasbench-101: Towards reproducible neural architecture search. arXiv preprint arXiv:1902.09635, 2019.

ネットワーク構造

詳細な説明なし? 

性能

・0.06GPU daysと、速度面はSOTA。

f:id:deconvo:20190610220658p:plain

実装

・著者PyTorch実装公開。

GitHub - tanglang96/DDPNAS: Dynamic Distribution Pruning for Efficient Network Architecture Search