Paper Review/Privacy Protection (UL, Anonymize)

[CVPR 2023] Boundary Unlearning: Rapid Forgetting of Deep Networks via Shifting the Decision Boundary

이성훈 Ethan 2023. 9. 17. 01:00

- Introduction

 

Machine Unlearning 이란?

 

Machine Learning: 경험을 통해 자동으로 개선하는 컴퓨터 알고리즘의 연구

 

머신러닝은 정의에서도 알 수 있듯이 새로운 데이터를 학습시키는 반면, Machine unlearning 은 말 그대로 배우지 않게 하는 것, 즉 배운 것을 까먹게 하는 것이라고 할 수 있음

 

 

기존 unlearning 방법들은 model parameter 를 scrub 하는 방식으로 forgetting data 의 정보를 파괴

 

하지만 이 방법은 large dimension 으로 인해 parameter space 가 너무 크기 때문에 expensive (Fisher Information Matrix)

 

 

Retrain 한 model 의 decision space 를 visualize 하여 intuition 을 얻음

 

CIFAR-10 에서 1개 class 를 unlearn 한 decision space = CIFAR-10 에서 9개 class 만 가지고 학습한 (retrain) decision space

라는 intuition

 

 

Observation

  1. Forgetting sample 은 decision space 에 흩어져있음
  2. 대부분의 forgetting sample 들은 다른 cluster 의 경계로 이동

 

► Boundary Unlearning: Unlearning an entire class

마침 위에서 발견한 observation 이 machine unlearning 의 두 가지 goal 과 매치됨

  1. Utility guarantee - Generalize badly on forgetting data
  2. Privacy guarantee - Unlearned model should not leak any information of the forgetting data

 

Boundary Shrink: Breaks the decision boundary of the forgetting class by splitting the forgetting  features into other classes

 

Boundary Expanding: Disperses the activation about the forgetting class by remapping and pruning an extra shadow class

 

 


- Preliminaries and Notation

 

Train dataset: D={xi,yi}Ni=1X×YD={xi,yi}Ni=1X×Y

Label

 

Labels: Y={1,,K}Y={1,,K}, Total number of classes: KK

 

Forget set: DfDf consists of the samples of the entire class

 

Remain set: Dr=DDfDr=DDf

 

Model trained on DD: fw0fw0 which is parameterized by w0w0

 

Model retrained on DrDr: fwfw which is parameterized by ww

 

Model unlearned on DfDf: fw which is parameterized by w

 


- Method

 

Boundary Shrink

 

 

Neighbor searching method 를 통해 가장 가깝지만 틀린 class 로 guide

 

Find the nearest but incorrect label for each forgetting sample

 

Initial forgetting sample: xf

 

Cross sample: xf=xf+ϵsign(xfL(xf,y,w0))

 

Cross sample 이란 adversarial attack 에서 착안한 방식으로, initial forgetting sample 에 noise 를 추가한 sample

 

이 Cross sample 을 original model 을 통해 새로운 label 을 예측하여 부여 ynbisoftmax(fw0(xf))

 

그 다음 기존 forgetting sample 에 새로 부여 받은 label 로 orginal model 을 finetune

w=argminw(xi,ynbi)DfL(xi,ynbi,w0)

 

Utility guarantee

 

  • Deactivates forgetting class
  • Barely hurts on remaining classes
  • Achieves the privacy guarantee better compared to random label finetune

 

 

Boundary Expanding

 

 

Boundary shrink: Neighbor search 가 너무 많은 시간을 소요시킴

 

Shadow class 라는 extra label 을 만들어서 forgetting sample 을 거기로 가도록 학습

 

Classifier 에 node 를 하나 더 만들고 finetune

 

w=argminw(xi,yshadow )DfL(xi,yshadow ,w0)

 

다 학습된 후엔 추가된 node 를 deactivate 하여 forgetting class 에 대한 정보를 없앰

 


- Experiment

 

Datasets

  • CIFAR-10
  • Vggface2

 

Baseline

  • Finetune
  • Random Labels
  • Negative Gradient
  • Fisher Forgetting
  • Amnesiac Unlearning

 

 

MIA ASR


- Discussion

 


- Reference

 

[1] Chen, Min, et al. "Boundary Unlearning: Rapid Forgetting of Deep Networks via Shifting the Decision Boundary." CVPR 2023 [Paper link]