Universal Adversarial Perturbation 구현하기

Universal Adversarial Perturbation 생성 알고리즘을 텐서플로우 1.X를 이용해서 구현해보았다. 코드는 https://github.com/LTS4/universal를 참조했다. (저기에 있는 코드를 거의 그대로 따라했다.) [Read More]

DeepFool 구현하기

DeepFool 알고리즘을 텐서플로우 1.X를 이용해서 구현해보았다. 코드는 https://github.com/LTS4/universal를 참조했다. (저기에 있는 코드를 거의 그대로 따라했다.) [Read More]

tensorflow 사용법

tf.train.Saver() __init__( var_list=None, reshape=False, sharded=False, max_to_keep=5, keep_checkpoint_every_n_hours=10000.0, name=None, restore_sequentially=False, saver_def=None, builder=None, defer_build=False, allow_empty=False, write_version=tf.train.SaverDef.V2, pad_step_number=False, save_relative_paths=False, filename=None ) var_list가 None이면 저장 가능한 모든 Variable과 Object를 저장한다. [Read More]

Intriguing properties of neural networks

DNN은 표현력이 뛰어난 모델으로 음성 및 이미지 인식에서 좋은 성능을 보여준다. 하지만 이러한 표현력 때문에 직관에 반하는 특성을 갖는 해석 불가능한 솔루션을 학습하게 된다. 이 논문에서는 다음과 같은 특성들에 대해 다룬다. 개별 unit들과 unit들의 랜덤 선형 조합에는 차이가 없다. 즉, neural network의 layer에 담겨있는 의미 정보를 포함하는 것은 개별 unit보다는... [Read More]

Explaining and Harnessing Adversarial Examples

이 논문 이전에는 neural network의 adversarial examples에 대한 취약성을 비선형성과 과적합으로 설명하려고 했다. 하지만 여기에서는 neural network의 선형한 성질을 그 원인이라 주장한다. 이 주장은 adversarial examples이 architecture와 (neural network의 구조) training set과 관계없이 적용되는 이유에 대한 설명을 제공한다. 또한 간단하고 빠르게 adversarial examples를 생성하는 방법을 제시한다. (Fast Gradient Sign Method)... [Read More]