본문 바로가기
반응형

아무 말204

[삽질을 해요] AliProducts Dataset, WebVision Dataset 등등 찾아봄 [이전 글] 방금 따끈따끈하게 작성한 이쪽 계열 연구 찍먹하는 글: https://ambitious-posong.tistory.com/175 주로 아키텍쳐 관점에서 봤음 실험 시나리오는 이제 봐야함 -> 아............. AliProducts와 AliProducts2를 헷갈렸다 ㅡㅡ [현재 목표] AliProduct 챌린지 정보 찾기 챌린지 공식 사이트, 과거 우승한 tech report 및 논문 등 ALBEF 논문 찾아보기 (foundation model, SOTA로 보임) image retrieval 조사 AliProduct 데이터셋 논문읽기 마무리 꼼꼼하게 보진 않아서 혹시라도 건질게 있나 더 보기. 그런데 별로 기대는 하지 않음... => 역시나 retrieval 얘기 없음 WebVisi.. 2022. 4. 26.
[삽질을 해요] Weakly Supervised Learning with Side Information for Noisy Labeled Images 읽음 (내용 추가) CVPR22 알리바바 챌린지 구경중인데, 공식 사이트에 데이터셋 설명이라면서 이 논문이 걸려있어서 읽게 되었다. 그런데 AliProducts와 AliProducts2는 다른 데이터셋이었다. AliProducts2에 대한 논문이나 설명은 없고, 챌린지 페이지에 있는게 전부다. 심지어 주어진 task도 다르다. ㄱ-....... image retrieval이랑 image classification이라 완전히 다른데 말이다. 아무튼 이 논문이랑 웹비전같은건 무시하고 그냥 retrieval 보러 갑니다 ㅃ ! 굉장히 급하게 하루 이틀만에 새로운 분야를 조사하는거라 틀린내용 있을 수 있음 ! 읽는다 논문 언제나 그렇듯 의역과 주관적 의견이 가득한 글을 쓰겠다 fine grained image cla.. 2022. 4. 25.
[삽질] 내친김에 mmsegmentation도 다시 설치한다 목적: mmsegmentation 환경 재설치 방청소를 안해서... 6개월 이상 분량의 코드가 덕지덕지 붙어있다... 청소 하는 김에 도커 용량도 줄일 겸 다시 셋업을 하고 있다. 1. 본인이 사용하는 레포의 mmcv 버전 지원 범위 확인하기 최근걸로 git pull하면 더 바뀌겠다만, 난 그냥 지금 쓰던 코드를 쓸거라 1.3.7~1.4.0으로 맞추면 된다. 어떤 코드냐에 따라 mmcv 버전이 다르기 때문에 이거 제일 먼저 확인해야함 2. 도커 파일 작성 현재 mmsegmentation/docker에 올라와있는 도커파일을 참고해본다. 방금 주절거렸던 mmaction2 셋업 포스팅에서 말했듯이 torch, cuda, cudnn 호환을 고려해야한다. 1. 특히나 mmcv 버전별로 지원하는 torch가 다르다.. 2022. 4. 11.
[삽질] mmaction2 업뎃 왜 안되나 (feat. 그냥 갈아 엎겠습니다) 문제 상황: 도커 사이즈가 너무 커서 줄이려고 함 내가 mmsegmentation도 쓰고 여기도 쓰고 저기도 써서 도커 사이즈가 왕왕 커져버렸다. 근데 서빙 하려면 아무래도 작은 게 좋겠지요? 마침 동료도 mmaction2를 쓰고있는데 작은 사이즈이길래, 이걸 가져다 쓰려는데 동료의 코드가 구버전이라 호환이 안된다. mmcv 버전에서 막혔기 때문... 그래서 한다. mmaction2 버전 업데이트. (라고 쓰고 그냥 다시 깔기) 전에 mmsegmentation 업데이트 할때도 개고생 했던 기억이 나는데 이거 완전 데자뷰 아니냐고 1. mmcv-full 설치 그냥 pip install mmcv-full=1.4.3 이런 식으로 하면 안된다. 예전 포스팅 참고 https://ambitious-posong.ti.. 2022. 4. 11.
식목일 그 다음날 (싱고니움 수경재배 시작, 히아신스 꽃 핌) 식목일 기념으로 화분을 들이고 가뿐한 마음으로 출근을 했다. 회사 사무실 이전 기념으로 받은 싱고니움이 보이는 게 아닌가. 반갑다? 오늘은 너로 정했다. 사실 저건 작년 사진인데 깜빡하고 안찍어서 걍 이걸로 올림 정말 화분이 터질 것 같은걸? 작년에도 저랬는데... 점심시간을 활용하여 수경재배로 바꿔줬다. 아이스 아메리카노 테이크아웃잔, 생수병에 나눠서 꽂아주고도 남아서 작은 뿌리를 집에 데려왔다. 실수로 잘라먹은 줄기이지만 물꽂이 하면 뿌리가 날거라 믿어 의심치 않아! 그리고 어제 사와서 수경재배로 바꾼 히아신스가 하루만에 꽃이 폈다. ???? 출근 전까지만 해도 어젯밤과 별로 다를 게 없었는데요. 짙은 꽃냄새가 나는 파인이와 별 생각이 없어보이는 아악이. 냄새는 쿠스미 부케오브플라워와 비슷한 느낌이다.. 2022. 4. 6.
식목일: 초록이를 키워요 (feat. 으아악) 식목일에만 가입이 가능하다는 드루이드 카페에 가입해뒀다. 생각난김에 간만에 식물을 집에 (또) 들여볼까. 요즘은 다이소에 가도 식물이 있지만, 식목일 기념으로 마트에도 들여왔을 것 같아서 가봤다. 예상 적중. ? 그렇게 장보러 갔다가 초록이들만 데려왔고요. 히아신스와 아악무(사랑무)를 데려왔다. 1. 아악무는 다육이라서 물을 조금만 줘도 된다고 해서 데려왔다. 수형도 너무 이쁘고. 늘어지는 가지가 있어서 조만간 삽목할까 한다. 참고로 이 아이는 우리집에 온 이상 이름을 부여받아야 하는 운명에 처했다. (스쳐 지나가는 수많은 식물들) 3초간의 고민 끝에 으아악이라고 지어주기로 했다. 2. 히아신스. 파인애플인줄 알고 데려왔는데 조금 실망이다. 그래도 예쁜 꽃이 핀다니 봐주기로 하자. 수경재배가 가능하대서 .. 2022. 4. 5.
[Continual Learning 조사 1] 마구잡이로 찾아보는 글 요즘 딥러닝이 슬슬 연구단에서 넘어가 애플리케이션화 되면서 continual learning과 같은 개념에 관심이 더 많아지는 듯 하다. 이러한 수요를 대변하듯, 2022년 올해 CVPR 워크샵 기준으로 이 주제를 다루는 곳이 2군데가 있다. 'Visual Perception and Learning in an Open World' 라는 CVPR 워크샵은 올해가 두번째로 개최된다. CVPR 2022 Workshop on Continual Learning (CLVision) 또한 올해가 3번째이다. 따끈따끈 하구만. 올해 워크샵을 이것저것 찾아보는데 재밌어 보이는 주제 중 하나가 continual learning인지라 이 분야에 대한 조사를 (이제부터 글쓰면서) 시작하였다. Continual Learning.. 2022. 3. 31.
[github 에러] fatal: Authentication failed for XXX 또 까먹어서 블로그에 박제함 ㅡㅡ 내 프로필 아이콘 -> Settings -> Developer Settings -> Personal access tokens -> Generate new token expiration은 무한정으로 해놨고, 권한 다줬다. 나 혼자 쓸걸 뭐... 토큰은 어디에 복붙해놓자. 다시 얻을 수 없고, 까먹으면 재발급 해야해서 귀찮다. 2022. 2. 28.
[그냥 뭔지 찾아보기] CLIP: Connecting Text and Images 혹은 Contrastive Language-Image Pre-training. 뭐죠? OpenAI에서 만들었다. natural language supervision으로 부터 시각적인 개념들을 효율적으로 배울 수 있는 네트워크이다. 원논문은 무진장 길기 때문에... 그냥 웹사이트를 봐주도록 하자. 왜 했죠? 아직까지 딥러닝은 transfer learning이 잘 안된다. 특정 태스크를 잘하기 위해 어노테이션이 많이 필요한데, 다른 분야로 확장하려고 하면 또 성능이 안좋다. 논문에서는 어떻게 했냐면, generalization and transfer를 잘 하기 위해서 natural language를 flexible prediction space로 봤다! 이런 문제를 해결하기 위해서, 웹에 있는 이미지와 자연.. 2021. 12. 15.
Towards Unified Surgical Skill Assessment 심심하니 논문을 읽어요. 아 배고파 - Towards Unified Surgical Skill Assessment NELVT Surgical Skill 평가가 몹시 중요하다. 이를 위해 surgical skill을 평가해왔는데, 일일이 하려면 비효율적이니 이 역시 자동화 하려고 한다. 따라서 수술 영상이 주어지면 수술이 얼마나 성공적으로 이루어졌는지를 평가하는 것이 이 논문의 목적이다. multi-path framework 뭘 평가하는가: surgical tool usage, intraoperative event pattern, and other skill proxies 위 요소들의 관계 또한 모델링하기 위해서 path dependency module을 정의했음 Dataset: JIGSAWS의 시뮬레이션.. 2021. 12. 3.
Masked Autoencoders Are Scalable Vision Learner + 여담 논문 읽으면서 정리 + 주절주절 아무말 간지나는 논문이 나왔으니 읽어주는게 인지상정이다. Masked Autoencoders Are Scalable Vision Learner FAIR AutoEncoder는? Encoder-Decoder 형태의 아키텍쳐이며, 좋은 인코더 얻으려고 학습한다. representation learning의 관점. 디코더를 통해 input을 복원하도록 loss를 학습시키면, 핵심적인 시맨틱을 가지는 좋은 feature를 뽑도록 네트워크가 훈련될테니까. (VAE와 비교해서 설명하는 글이 많이 있으니 모르면 찾아보도록 하자. 얘는 반대로 생성을 잘하기 위한, decoder를 얻는게 목적인 구조이다. 어쨌거나.) Denoising Auto Encoder (DAE)도 있는데, 말그대로.. 2021. 12. 1.
[2021.11.25] survey 사냥하러 가자 Gradients are Not All You Need 구글 브레인 팀 https://arxiv.org/pdf/2111.05803v1.pdf 미분 가능하게 만든게 딥러닝을 굉장히 부흥시켰으나, failure case가 있음을 언급한다. 그러면 대책은 없나? 이 논문에서는 시스템의 Jacobian을 계산해서 추적해봤으며, criterion을 제공하여 실패할지를 알 수 있다고 한다. 뭐 다들 gradient가지고 학습해온건 아니까 생략하고. 그런데 어떤 mathematical object를 가진 경우라면 상관 없겠지만, system dynamics의 특정 함수를 최적화하려는 경우에는 알고리즘적으로 유용하지 못하다. 이 논문에서는 그런 경우를 다루며, 이를 'chaos'라 명명했다. Iterat.. 2021. 11. 25.
AVA action 학습이 이해 안가서 주절거리는 글 요즘 Action Localization(Detection) 공부를 하고 있다. 대표적으로 AVA action 데이터셋을 사용하는걸로 보인다. 이번에 엄청 큰 데이터셋(Ego4D) 하나 새로 나온걸로 알기는 하는데, 여기에 action detection이 있는지는 모르겠다. HOI는 있던데... 어쨌거나 AVA action 데이터의 어노테이션은 bbox와 그 박스에 대한 클래스로 구성되어있다. 다른 박스와 상호작용하는 클래스가 있기도 한데, 어노테이션만 뜯어보면 그냥 bbox각각에 60클래스에 대해 Multi-label classification을 하는 구조. 다시 말해, 비디오 클립이 있다고 하면 모든 프레임(정말로 다하진 않고 fps 설정 하겠지만)에서 bbox와 함께 그 오브젝트가 어떤 동작을 하는.. 2021. 11. 1.
[데이터셋 논문] CholecSeg8k: A Semantic Segmentation Dataset for Laparoscopic Cholecystectomy Based on Cholec80 읽는다 논문 CholecSeg8k: A Semantic Segmentation Dataset for Laparoscopic Cholecystectomy Based on Cholec80 https://arxiv.org/pdf/2012.12453.pdf IPCAI 2021 논문이다. https://www.kaggle.com/newslab/cholecseg8k 데이터셋 다운로드 링크 그런데 아직 kaggle에 정의된 task도 없고, 스타터 코드는 그냥 데이터 불러오고, 데이터 통계량 플랏해주는 내용 외에 없다. discussion 등을 뒤져봐도 마찬가지. 논문에도 baseline method같은게 전혀 없어서 성능이 어느정도 나와야 하는지는 미지수이다. https://www.youtube.com/watch?.. 2021. 10. 29.
[Surgical Vision + Transfer Learning] Cross-surgery transfer learning for surgical step recognition 논문 읽기 이 분야 계속 보고있어서, 논문 찾을때마다 업데이트할거임 “Train one, Classify one, Teach one” - Cross-surgery transfer learning for surgical step recognition (MIDL 2021) https://arxiv.org/pdf/2102.12308.pdf 요약? 비디오 상에서의 Surgical Workflow step recognition 논문 surgical step recognition을 4종류의 laparoscopic surgeries에서 진행 Cholecystectomy, Right Hemicolectomy, Sleeve Gastrectomy, and Appendectomy Time-Series Adaptation Network.. 2021. 10. 27.
반응형