본문 바로가기
반응형

AIML 분야102

[논문리뷰] Video Inpainting - Flow-Guided Diffusion for Video Inpainting (FGDVI) 보호되어 있는 글 입니다. 2023. 12. 13.
블로그 이동 아직 아무것도 없긴 한데... 아래 링크의 깃허브 블로그로 옮기려고 한다. https://sghong977.github.io/ SeulGi Hong – AI Research Engineer AI Research Engineer sghong977.github.io 현재 티스토리 블로그는 처음 입사하고 2020년부터 썼는데, 아는 것 없는 상태에서 공부용도로 쓴거라 헛소리가 많다. 완전 흑역사 창고... 지금 또 새롭게 하고 있는 것들에 대해 논문리뷰나 시행착오를 적을 것 같다. 여기에 남은 예전 글은 천천히 다시 보면서 버릴건 버리고 보완할건 보완해서 옮기겠다. 아 나 아직 애드센스 100불 못채웠는데 2023. 3. 24.
SMPL-X Blender Add-on Overview Feature Overview - Female, Male, Neutral Model - UV map, sample female/male textures - Auto-calculation of corrective poseshapes - it's possible to set the body shape from height and weight values -> 자동으로 joint 위치가 다시 계산되는 것임 - Load full body pose from *.pkl file - Position feet on ground - FBX export (Unity import O) - Add-on python code is GLPv2 license SMPL-X 홈페이지 로그인 -> 다운로드 -> Add-on 다운 -> .. 2023. 2. 15.
NeRF 공부를 위해서 내가 뭘 모르는지 찾아보기 커리큘럼 찾아서 똑같이 공부하면 되지 않을까 2022, 2023에 강의가 있는 CMU의 learning3d 자료가 좋아보여서 가져왔다. 슬라이드가 모두 나온 2022 버전으로 썼는데, 2023에서 논문 걸어둔게 달라졌을수도 있어서 참고해보자. learning3d Syllabus Introduction 3D Representations 3D Representations: Conversions Image Formation Single-view 3D: History + 2.5D PyTorch3D Tutorial Single-view 3D: Objects Single-view 3D: Objects and Scenes 3D Prediction without 3D Supervision Single-view 3D: .. 2023. 2. 14.
3D Pose, Motion, SMPL ... NeRF를 위한 기본기 공부 이것저것 하는 중... git issue에 조각글 던지고 있는데 슬슬 감당이 안되어서 블로그에 쓴다. 일단 정리하려는 것은, - MOCAP 데이터 확인 - COLMAP 기능 간단하게 알아보기 - CMU learning3D 강의노트 체크, 논문 리스트업 - 그 외 살펴본 자료 일단은 모션 데이터 잠깐 찾아봤다. AMASS "AMASS: Archive of Motion Capture As Surface Shapes" ICCV 19 https://amass.is.tue.mpg.de/index.html 지금 AMASS Dataset에 있는 SFU mocap(SMPL+H G) subset 사용하고 있어서 이거 잠깐 보려고함. TMI: 조사하기전 궁금했던 것 Mocap Dataset 검.. 2023. 2. 14.
[논문 리뷰] NeuMan: Neural Human Radiance Field from a Single Video 뭐지 어쩌다 내가 NeRF를 하게된거지 암튼 그렇게됨... 읽어볼게요 전에 썼던 관련글 - GIRAFFE (CVPR 21 best) https://ambitious-posong.tistory.com/144 NeuMan: Neural Human Radiance Field from a Single Video ECCV 2022 https://github.com/apple/ml-neuman 뭐하는 논문인가요? 10초정도의 비디오가 주어짐. 비디오는 하나이며, 카메라는 움직임이 있음. 이걸 통해서 새로운 viewpoint, 사람 포즈 등을 만들 수 있음. 악세서리나 주름같은 세세한 것도 학습할 수 있다고함. 엥? 어떻게? scene, human에 대한 NeRF 모델을 학습함. geometry를 대략 추정하는건 기.. 2022. 12. 28.
survey 보호되어 있는 글 입니다. 2022. 12. 26.
서베이 작성일시: 2022.09.29 금요일 국책과제가 좀 마무리되어서 트렌드 조사를 했다. 이런거 해주는 무료, 유료 더 좋은 사이트들이 있는것 같긴 한데 나는 아래 사이트를 참고했다. 트위터 기반으로 요즘 핫한 논문, 유명한 트윗 등을 볼 수 있다. https://deeplearn.org/ Deep Learning Monitor - Find new Arxiv papers, tweets and Reddit posts for you Shreya Shankar, Rolando Garcia, Joseph M. Hellerstein, Aditya G. Parameswaran 2022-09-16 PDF Mendeley Super Hot Shuai Yang, Liming Jiang, Ziwei Liu, Chen Chan.. 2022. 10. 8.
[서베이 & ideation] Scene Text Recognition (OCR) + Visual Feature로 representation learning을 한다? 서론. 과거에는 OCR로 텍스트 인식하여 정형화된 문서를 판독했는데 이제는 scene text recognition을 한다. 요즘 다시 STR쪽을 보고있는데 최근에도 논문이 활발하게 나오는 것 같다. 그렇게 text detection과 text recognition 단계를 거쳐 이미지 내의 텍스트를 인식하는 것 까지는 좋다. 여기서 더 나아가, 인식한 글자를 어떻게 활용할 수 있을지에 대한 고민을 하고있다. Scene Understanding을 위해서 이미지랑 텍스트를 같이 사용하는거 없나? caption과 이미지를 함께 사용하여 multimodal로 representation learning 하는건 요즘 foundation model이라고 부르면서 널리 연구되는 분야다. CLIP이라든가 ALIGN, A.. 2022. 10. 6.
[Depth Estimation] SCARED Dataset 근황 [개요] 이래저래 시행착오를 겪으며 해왔던 것을 정리하려고 한다. 의료 도메인으로 넘어오기 전에 KITTI dataset에서 미리 학습을 진행해봤었다. (AdaBins, 정상동작 확인) SCARED Dataset을 가지고 monocular depth estimation을 진행한 결과에 정리하는 포스팅이지만 본 목적은 따로 있다. 목표로 하는 다른 데이터셋이 있는데 이게 GT가 없는데다가 영상 좌우싱크조차 잘 안 맞는 문제가 있어서, SCARED 실험을 통해 - 유사한 데이터셋에서의 toy example을 통해 분야 관련지식 습득 - SCARED로 학습한 모델을 가지고 목표 데이터셋에 knowledge transfer 하기 이러한 두가지 목적이 있다. 그래서 task를 바라보는 관점 자체가 여기에 초점이 .. 2022. 8. 19.
[시도 1] mmdetection에 wandb (weight and bias) 적용 참고 링크 - wandb 공식 사이트 https://wandb.ai/wandb_fc/korean/reports/MMDetection-Weights-Biases---VmlldzoyMjA1Njky - 사용했다는 기록을 발견 https://velog.io/@hanlyang0522/Object-Detection-%EA%B3%BC%EC%A0%9C-%EC%88%98%ED%96%89%EC%9D%BC%EC%A7%80 1. 그냥 log_config 추가 글 자세히 읽기 전에 이런식으로 MMDetWandbHook 추가하였음. log_config = dict(interval=50, hooks=[dict(type='TextLoggerHook'), dict(type='MMDetWandbHook', init_kwargs={'pr.. 2022. 8. 18.
[2022.08.17] 공부 내용, 현황 요약 (object detection) 오늘 배운 점 기록. 논문 작업 이외에는 Object Detection 위주로만 공부했다. 1. YOLOX 보기 object detection에서 2-stage 위주로만 알고 있었는데, 요즘 실험해보니 CBNetV2보다 YOLOx가 더 잘된다. 그래서 YOLO를 찾아보려함. YOLO 시리즈가 정말 많았다. Q. Anchor Free? Anchor based? Anchor free가 나중에 나왔는데, 2-stage에서는 이제 anchor free도 많이 발전했는데 single stage인 YOLO들은 anchor based였다고 한다. 그래서 Anchor free를 포함하여 그동안 2-stage에서 발전한 최근 기술들을 YOLO에 도입한 것이 YOLO_X라고 한다. (그전에는 도입이 안 된 듯) 참고자료 .. 2022. 8. 17.
Object Detection의 Ensemble 기법 조사 하다보니 앙상블의 필요성을 느껴서 조사 시작. 논문을 읽어요 https://www.unirioja.es/cu/joheras/papers/ensemble.pdf. https://github.com/ancasag/ensembleObjectDetection. code object detection? [output] bbox, category, confidence score detection의 앙상블? 그냥 알고리즘적으로 고안한 다양한 기법들 모델 내에서: RPN에 들어가기 전 이미지 피쳐에 적용, classification stage에 앙상블 적용 ... primary 결과를 두고, secondary 결과를 가지고 조정하는 경우: YOLO랑 Faster-RCNN output을 같이 섞는 방법을 예로 들수 있다.. 2022. 8. 17.
[연구일지] 2022.08.10 Monocular Depth Estimation 기록 [상황] 데이터셋 https://arxiv.org/pdf/2101.01133.pdf 모델 Monocular Depth Estimation Toolbox 사용 (이전 포스팅 참고) 텐서보드로 train loss curve와 image-pred-GT visualization 확인중 GT가 tiff file이고 값의 범위가 넓음 [몇가지 이슈] [GT 관련] 양수값으로도 몇백 이상의 큰 값이 있지만 0보다 작은 값이 있다. [GT 관련] 빈 값이 많아서 자글자글 -> 실제로는 depth map 차이가 크지만 이미지로 뽑아보면 빈값때문에 어두워 보이는 경향이 있음. [학습 관련] 상대적으로 predicted output값이 크게 나오는 경향이 있었다. [테스트 관련] depth estimation은 뭔가 eva.. 2022. 8. 10.
[Monocular Depth Estimation] mono toolbox 코드 뜯는 기록 Monodepth Estimation Toolbox https://github.com/zhyever/Monocular-Depth-Estimation-Toolbox GitHub - zhyever/Monocular-Depth-Estimation-Toolbox: Monocular Depth Estimation Toolbox based on MMSegmentation. Monocular Depth Estimation Toolbox based on MMSegmentation. - GitHub - zhyever/Monocular-Depth-Estimation-Toolbox: Monocular Depth Estimation Toolbox based on MMSegmentation. github.com [상황] 1. .. 2022. 8. 5.
반응형