Core Concepts
本稿では、スパース性誘導事前分布と変分推論を用いることで、ベイズニューラルネットワークのモデル圧縮と特徴選択を効率的に行う新しい手法を提案する。
Abstract
ベイズニューラルネットワークにおけるモデル圧縮と特徴選択:新しいアプローチ
本稿は、ベイズニューラルネットワーク(BNN)のモデル圧縮と特徴選択に焦点を当て、スパース性誘導事前分布と変分推論を用いた新しい手法を提案する研究論文である。
深層学習におけるモデル圧縮の重要性:計算コストの削減、ストレージ容量の制限への対応、敵対的攻撃への耐性向上などの利点がある。
従来のBNNにおける課題:精度の高い推論には計算コストがかかり、スパース性誘導事前分布を用いた場合に計算量が増大する。
本研究の目的:スパース性誘導事前分布を用いながら、BNNの重みだけでなくトポロジーも直接学習する効率的なアルゴリズムを開発する。
スパイクアンドスラブ事前分布の採用:重みに対してスパース性を誘導し、不要な結合を削減する。
変分推論による事後分布の近似:計算コストを抑えながら、重みの包含確率を推定する。
乗法的平均場アプローチ:重みのサイズと包含確率を別々の変分分布でモデル化する。
効率的な勾配計算:再パラメータ化トリックと閉形式解を用いて、勾配計算を効率化する。