반응형 attetnion1 [논문 리뷰] Self-Attention Generative Adversarial Networks 안녕하세요. 🌟오늘은 현재 가장 핫한 attention을 GAN에 적용한 논문에 대해 리뷰를 해보겠습니다. Abstract 이 논문에서는 Self-Attention Generative Adversarial Network, 줄여서 SAGAN에 대해 다룬다. 이 모델은 1) attention-driven, 2) long-range dependency modeling을 이용했다고 한다. 전통적인 convolutional GAN은 고해상도의 디테일을 저해상도 feature map에서의 부분적인 local points의 함수로만 만들어낸다. 하지만, SAGAN에서의 디테일한 부분들은 모든 feature locations으로부터의 cue(신호? 큐사인)을 이용해서 만들어내진다. ( 즉, 디테일한 부분 생성이 이미지.. 2021. 3. 1. 이전 1 다음 728x90 반응형