Alapfogalmak
連邦学習では、クライアントが自身のデータを共有せずにモデルを学習できるが、モデルパラメータの共有によりクライアントのデータが再構築される可能性がある。本研究では、連邦平均(FedAvg)アルゴリズムにおいて複数ステップのモデル更新を行う場合の攻撃を可能にする近似手法を提案し、さらにレイヤー毎の加重損失関数を設計することで、データ再構築の質を向上させる。
Kivonat
本論文では、連邦学習(FL)におけるデータ再構築攻撃について検討している。
まず、FLの問題設定と連邦平均(FedAvg)アルゴリズムについて説明している。
次に、データ再構築攻撃の定式化と一般的な手順を示している。
その上で、FedAvgにおける4つの異なるシナリオ(E=1, B=1; E>1, B=1; E=1, B>1; E>1, B>1)について分析し、E>1かつB>1の場合に攻撃が困難になることを指摘している。
そこで、本研究では以下の2つの提案を行っている:
- 中間モデル更新の近似手法: クライアントが複数ステップの局所学習を行う場合でも、受け取ったモデル更新を補間することで中間モデル更新を近似する。これにより、E>1かつB>1のシナリオでも攻撃が可能となる。
- レイヤー毎の加重損失関数: モデル更新の各レイヤーに異なる重みを割り当て、ベイズ最適化によって重みを最適化する。これにより、再構築の質を向上させる。
最後に、CIFAR-10データセットを用いた実験結果を示し、提案手法の有効性を確認している。
Statisztikák
クライアントのデータサイズは N = 4 である。
クライアントのモデルは ResNet18 を使用している。
攻撃の最適化には Adam オプティマイザを使用し、学習率は 0.1、反復回数は 1,000 回である。