要約
中間層の活性値を利用したOOD(分布外)検出の不安定性を分析し、新たな手法「Ranked Activation Shift」を発表。 ソート済み活性量を固定の分布内参照プロファイルで置き換えることで、チューニング不要かつ安定した検出を実現。 データセットやアーキテクチャに依存せず汎用的に機能し、モデルの信頼性向上に貢献する実用的アプローチ。
公式ソースだけを集めたAIニュースを日本語要約でお届け
Ranked Activation Shift for Post-Hoc Out-of-Distribution Detection
中間層の活性値を利用したOOD(分布外)検出の不安定性を分析し、新たな手法「Ranked Activation Shift」を発表。 ソート済み活性量を固定の分布内参照プロファイルで置き換えることで、チューニング不要かつ安定した検出を実現。 データセットやアーキテクチャに依存せず汎用的に機能し、モデルの信頼性向上に貢献する実用的アプローチ。
本論文は、学習済みモデルに後処理として適用できる「分布外(OOD)検出」手法「RASH(Ranked Activation Shift)」を提案する。OOD検出とは、モデルが学習時に見ていないデータ(未知クラスなど)を入力された際にそれを識別する技術で、AIの安全な実運用に不可欠である。
既存のSOTA手法(ReActやASHなど)は、ニューラルネットの中間層・最終層手前(ペナルティメート層)の活性値をスケーリング・クリッピングすることでOODスコアを算出するが、データセットやモデル構造によって性能が大きくばらつく問題があった。著者らはこの不安定性の根本原因として、ペナルティメート層の活性値がReLUなどで整流化されていない場合に負値が残り、スケーリング系手法が誤動作することを理論・実験両面で示した。
RASHは、活性値をソートして得た「大きさのランク順プロファイル」を、学習データから得た固定の参照プロファイルに置き換えるというシンプルな操作で、整流化の有無を問わず安定して機能する。ハイパーパラメータが一切不要で、分布内データの分類精度を設計上保証する点も実用的強みである。ImageNet系ベンチマークで複数アーキテクチャ(ResNet, ViTなど)にわたり既存手法を上回る一貫した性能を示した。