본문 바로가기
반응형

아무 말204

CVPR 2021 best paper candidates 목록 저번 글에서 이번 CVPR 베스트 페이퍼를 살펴봤는데, CVPR 2021 Best paper는 아니지만 후보에 올랐던 논문들을 한번씩 보려고 한다. 283 Privacy-Preserving Image Features via Adversarial Affine Subspace Embeddings Mihai Dusmanu (ETH Zurich); Johannes L Schönberger (Microsoft); Sudipta Sinha (Microsoft); Marc Pollefeys (ETH Zurich / Microsoft) 415 Learning Calibrated Medical Image Segmentation via Multi-Rater Agreement Modeling Wei Ji (Universit.. 2021. 8. 24.
[휘리릭 논문 읽기] CVPR 2021 Best Paper: GIRAFFE "GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields" Michael Niemeyer, Andreas Geiger 발표 뭐할지 고민하는 중에 이름이 귀여운 논문을 발견했다! 근데 이번 CVPR best임. 세상에... 올해 CVPR best paper조차 모르고 연구하고 있었다니 어떻게 그럴 수가 있지? 당장 읽어보도록 하자 뭐 하는 논문인가요? 이런식으로 controllable image generation을 한다. ? 뭔가 저런식으로 controllable한걸 하려는 수요는 엄청 많았을테니 연구가 많긴 했을텐데, 3D 고려해서 한게 없다는 것 같다. 왜냐면 원래 자연이 3D라는걸 고려하지 않고 이미지상에서 요소를.. 2021. 8. 17.
StyleGAN v2보다 좋은 transformer 기반 GAN이 나왔음 ViTGAN: Training GANs with Vision Transformers https://arxiv.org/pdf/2107.04589v1.pdf UC San Diego, 구글 리서치 전에 봤던 TransGAN의 경우는 StyleGAN V2에 못미쳤었다. TransGAN 논문에 따르면 (transformer 기반일 경우) Discriminator 만들기가 생각보다 까다로웠고, Generator의 경우 transformer 기반으로 한게 AutoGAN (19년) 급의 성능을 보인 것으로 기억한다. 아마 이때 내가 투덜거렸던게, Generator에서 가능성이 있는거라면 좋은 transformer기반의 generator를 만드는 아키텍쳐 디자인 연구가 있다면 좋겠지만, 아직 사례가 없어서 아쉽다고 했었.. 2021. 8. 5.
Transformer와 CNN과 융합, 최강의 backbone 서베이 해보기? (EfficientNet V2, CMT, ViT, DeiT, Swin 등) 딥러닝 아키텍쳐 진짜 아무말. 디자인 하며 고민한 것과 서베이 내용을 다루는 글이다. 완전 딴 소리 TMI 더보기 성능 올리는 생각을 하면서 엉성하게나마 모델 고안을 하다보니, 요즘 관심사는 아무래도 'SOTA 모델들이 왜 성능이 좋은가?' 이다. 아키텍쳐 만들려고 하니까 연산 하나하나 단위가 중요했다. 학부때 처음 딥러닝을 접했을때는 Depthwise convolution같은거 그냥 검색해서 어떤 연산인지 보고 설명 이해하고 흘러 넘겼는데, 이젠 각각을 다시 봐야겠다는 마음이 들기 시작했다. 현재 풀고싶은 task가 있는데, SOTA 모델의 단점이 뭔지 생각해보고 개선할 수 있도록 하는게 목표다. 성능이 아직 높지 않은 어려운 task이기 때문이다. 그러려면 먼저 이미 있는 모델들을 서베이하고 이해해야.. 2021. 8. 4.
Portfolio Optimization - PyPortfolioOpt (1) https://github.com/robertmartin8/PyPortfolioOpt/commits?author=robertmartin8 git https://pyportfolioopt.readthedocs.io/en/latest/ official document Efficient Frontier? https://m.blog.naver.com/PostView.naver?isHttpsRedirect=true&blogId=gdpresent&logNo=220890967416 Harry Markowitz의 이론인데, 1952년도 논문이라 되게 오래 되었다. 금융쪽 비전공자인 나도 포트폴리오 이론이니, CAPM이나 CAL같은건 어디서 주워들어봤으니까 완전 기초중의 기초일 것 같다. 저 분야에서 바이블인가? 뜬금없.. 2021. 7. 30.
mmsegmentation 실험정리를 위해 MongoDB 셋업하기 (1) 실험한거 일일이 텍스트파일로 리스트 만들고 플랏 하는거 몹시 빡친다 데이터 계속 바뀌고, 하이퍼 파라미터 튜닝도 하고, 뭐 오류있고 그래서 파일이 넘쳐나기땜에 정리 매우 하기 싫음 그러던중 MongoDB 라는걸 알게되어서 처음 써보려고 한다. - 실험 결과파일 json을 db에 때려넣고 - db에서 조건에 맞는것만 선택해서 - 원하는 조건에 맞춰 플랏해주는 무언가 를 만들테다 배보다 배꼽이 큰 기분이지만 텍스트 정리는 열받기 때문에 이게 나을 것 같다. 좋아 주워들은 것 MongoDB는 SQL스런 칼같은 느낌은 아니라고 한다. 특정 column 값이 없기도 하고, 그냥 설명 들어보니 json같다는 생각이 들었음 도커로 셋업하는게 편함 명령어는 역시 직접 쓰는게 더 좋다고 하지만 난 귀찮으니 파이썬으로 할.. 2021. 7. 29.
[연구노트] mmsegmentation 업데이트중 해결한 에러들, Action 연구 근황 최근에 해결한 문제에 대해 기록하는 글 mmsegmentation 구버전에서 코딩하다가 최근걸로 업데이트 하다가 생긴 문제 ACAR-Net 베이스라인으로 내 모델 구현했는데 성능이 안나오는 문제 미래의 나를 위해 mmsegmentation 관련 에러 요약 build_segmentor 없다는 에러는 그냥 __init__.py 제대로 안써서 생긴 문제였음. 원래 내가 코딩했던거랑 merge하는 중에 충돌나서 그런지 파일이 없어져있음 (...) 다시 작성해줬더니 잘됨. 최근버전 mmseg 사용하려면 mmcv는 1.3.9로 업데이트 해야함. 난 1.3.0을 쓰고있어서 업데이트 필요했음. 간혹 mmcv-full 설치시에 CUDA 문제로 안깔릴수도 있음. CUDA_HOME이 없다는 에러 -> cuda toolkit.. 2021. 7. 26.
[작성중...] K-Net: Towards Unified Image Segmentation "K-Net: Towards Unified Image Segmentation" 논문: https://arxiv.org/pdf/2106.14855v1.pdf !! 논문 읽으면서 쓰는 글이라 의역이나 사족 달아놓은게 많습니다 !! arxiv sanity를 뒤지며 수많은 transformer에 기분이 상할 즈음에 트랜스포머가 아닌걸 발견했다. mmdetection을 시작으로 mmaction mmsegmentation 등, 많은 학습모델들을 지원해주는 open-mmlab에서 나왔다! 역시 mmcv 시리즈에 코드를 공개할 예정으로 보인다! 이미 나왔는지는 확인 안해봄 K-넷이라길래 애국 코인인줄 알았더니 아니었다! 무려 중국 모델 코리안-네트워크 아니고 커널-네트워크다 K-방역 K-반도체 뭐 이런건줄 알았어 Ab.. 2021. 7. 23.
Action Localization (Spatial Temporal Action Detection) 서베이 2 저번에는 Action Localization 분야에 대략 어떤 논문들이 있나 리스트를 뽑았었다. 한번 읽어보자. 1. Spatio-Temporal Context for Action Detection (줄여서 애플 논문) 4페이지짜리 숏페이퍼. CVPR 워크샵 논문이라고 한다. ablation만 추가로 해서 메인에 내도 승산 있을텐데 왜지 => 다 읽고나니 왜 워크샵에 냈는지 알 것 같다 Abstract. 최근 연구들은 거의 temporal information은 aggregation된 feature를 사용했는데, 이 논문에서는 그러지 않겠다고 말한다. short range temporal interaction을 배우기 위해 two cross attention blocks를 사용. 그림을 보면, bbox가.. 2021. 7. 19.
Action Localization (Spatial Temporal Action Detection) 서베이 1 뭐 좀 아이디어 없나 생각하려고 휘리릭 찾아봤다. 몇가지 기억을 더듬어 추가. 따라서, 기억 왜곡이 있을 수 있다. [현재까지 본 것 요약] Backbone ACAR-Net과 애플논문은 모두 SlowFast를 사용했다. 단, 애플의 경우 SlowFast50 8*8만 실험했음. 저번 AVA Action 챌린지 결과를 보면 대부분의 순위권 논문들은 SlowFast101을 사용했다. 그리고 pretraining의 경우, Kinetics400보다는 600, 700이 더 성능이 좋았다. 당연한거지만 성능 차이가 무시 못할 수준이었기 때문에 적어둠. 왜냐면 애플의 경우 Kinetics400 pretrained 사용. BBOX 애플: SlowFast에서 미리 계산해둔 bbox 사용. 실제로, mmaction (구버전.. 2021. 7. 16.
GAN Cocktail: 학습된 GAN 모델을 합친다고? GAN Cocktail: mixing GANs without dataset access arxiv sanity top recent에 랭크된 논문. 일단 제목이 시선강탈이기는 하다. https://arxiv.org/pdf/2106.03847v1.pdf 저자들이 예루살렘에 있는 대학이라는데. 이스라엘의 딥러닝을 맛볼 수 있는건가요? 슬픈 DF-VO 논문이 넘 안읽히는 관계로 다른걸 기웃거리고 있다. 좋아. 주제 일단 주제는 흔하지 않다. 누가 GAN을 합치긴 합쳐? 조건으로는, 모델 크기가 커지지 않을 것. 모델 두개를 대충 붙이는 게 아니다. 각각의 모델들을 학습시켰던 데이터에 접근할 수 었는 상황을 가정한다. 요런 셋팅에서 시도하는건 본인들이 최초라고 한다. 다시 말해, data를 모르고 그냥 다른 도메.. 2021. 7. 2.
대충 빠르게 읽어보는 KITTI dataset 논문 [2022 추가] 제가 카메라랑 depth estimation을 시작할지는 꿈에도 몰랐네요 과거에 이런 글을 쓰다니.... 데이터 다운받고 관련 논문 읽는건 요즘 포스팅중. 그나저나 현대차 주가 언제 오를거임? ㅡㅡㅡ Visual Odometry 데이터셋을 사용하고싶다. 그런데 공홈에 별로 설명이 없다. 귀찮아서 사실 이것까지 보고싶진 않았는데, camera calibration도 공부해야하고 데이터셋에 들어있는 각 파라미터 의미가 뭔지 설명이 제대로 없어가지고 도통 알아먹을수가 없어서 읽어야겠다. 자율주행 궁금하기도 했으니 KITTI dataset 논문을 보자. 현대차 주주니까! 굿 "Are we ready for Autonomous Driving? The KITTI Vision Benchmark Su.. 2021. 6. 30.
DF-VO 논문 리뷰 & 코드 셋업해보기 아래 깃허브는 두 논문에 대한 코드 Visual Odometry Revisited: What Should Be Learnt? DF-VO: What Should Be Learnt for Visual Odometry? https://github.com/Huangying-Zhan/DF-VO KITTI Dataset도 미리미리 잘 다운 받아주자. 링크 요청하면 빨리 왔다. 과정 (별거없음) conda를 사용하라고 한다. 매우 살짝 빈정이 상하지만 도커 위에 얹어보기로 한다... 난 도커가 있어야하니까 설치하는동안 KITTI Odometry 데이터셋 압축을 풀어주자. 압축해제가 오래 걸린다. 심볼릭 링크를 추가하라는데 귀찮아서 안했다. 뭐... config 파일 바꿔주자 import 에러: libs가 없다고 뜬다.. 2021. 6. 17.
[논문리뷰] Transformer + GAN에 관한 논문 리뷰 논문 두개 대충 봐야지 Transformer-based GAN 논문이 있고, Transformer Generator + CNN Discriminator 논문이 있다. 후자가 더 나중에 나왔다. 1. "TransGAN: Two Transformers Can Make One Strong GAN" [요약] transformer만 활용한 아키텍쳐에 대한 고찰이 주된 주제. Transformer 기반의 Discriptor는 그냥은 안좋다. 여러 문제점이 있다. CNN Discriptor를 사용한 두 경우가 성능이 좋았는데, 이걸 끌어올리려는 노력보다는 그냥 transformer의 한계를 보고싶었던 듯. 그래서 여러 기법으로 영끌하면 AutoGAN 정도의 성능은 transformer만으로도 달성 가능하다는 것을 입.. 2021. 6. 15.
2021.06.03 연구 보호되어 있는 글 입니다. 2021. 6. 3.
반응형