반응형
ViTGAN: Training GANs with Vision Transformers
https://arxiv.org/pdf/2107.04589v1.pdf
UC San Diego, 구글 리서치
전에 봤던 TransGAN의 경우는 StyleGAN V2에 못미쳤었다.
TransGAN 논문에 따르면 (transformer 기반일 경우) Discriminator 만들기가 생각보다 까다로웠고, Generator의 경우 transformer 기반으로 한게 AutoGAN (19년) 급의 성능을 보인 것으로 기억한다.
아마 이때 내가 투덜거렸던게, Generator에서 가능성이 있는거라면 좋은 transformer기반의 generator를 만드는 아키텍쳐 디자인 연구가 있다면 좋겠지만, 아직 사례가 없어서 아쉽다고 했었다.
그런데 이 논문이 G, D 모두 transformer 기반임에도 SOTA급 성능을 보인다!
흥미진진하게 읽어보도록 하자.
반응형
'AIML 분야 > Generative Model과 GAN' 카테고리의 다른 글
GAN 이것저것 대충 읽기 (0) | 2021.09.14 |
---|---|
[휘리릭 논문 읽기] CVPR 2021 Best Paper: GIRAFFE (3) | 2021.08.17 |
GAN Cocktail: 학습된 GAN 모델을 합친다고? (0) | 2021.07.02 |
[논문리뷰] Transformer + GAN에 관한 논문 리뷰 (1) | 2021.06.15 |
kaggle 첫번째: GAN 해보기 (0) | 2021.01.25 |
댓글