본문 바로가기
반응형

KITTI Dataset4

[Monocular Depth Estimation] AdaBins, BinsFormer, 그리고 KITTI Depth Dataset 셋업 Contents Intro BinsFormer AdaBins 셋업을 해요 Intro. 저번 포스팅에서 depth estimation에 대한 조사를 시작했다. stereo는 다른 분께서 담당하고 계셔서 나는 Mono를 찾아보았다. 현재 SOTA는 transformer를 사용하는데다가 depth estimation을 classification-regression task로 정의한 BinsFormer이다. AdaBins도 이와 유사하게 adaptive bin을 구하도록 depth 문제에 접근했다. 따라서 나는 BinsFormer를 베이스라인으로 잡고 reproduce를 시작할 예정이나, 아직 코드가 업데이트되지 않았기 때문에 같은 레포에서 지원하면서도 유사해보이는 AdaBins를 실험할 예정이다. 그래도 기다.. 2022. 7. 18.
depth estimation task 조사 + BinsFormer 대충 보기 논문 끝났다 끼히히힣! 다시 조사를 합니다. Contents - depth estimation이 뭐더라? - paperswithcode 리스트를 보자: mono 볼게요 - BinsFormer 아주 잠깐 보기 - Dataset, Eval Metric 아주 잠깐 depth estimation이 뭐였는지 주절거리고 가자. input RGB 이미지에 대해서 depth를 추정하는 것. 물체가 가까이 있는지 멀리 있는지에 대한 값을 픽셀레벨로 맞춰야한다. Camera pose tracking이나 SLAM, SfM 등 3D로 가려면 이게 필수다. (아마도. 이 분야 모른다 이제 찾는중) 예를 들면 저번 포스팅에서 봤던 Mono-Depth-and-Motion 논문을 보면 3D Reconstruction이 최종 목표인데.. 2022. 7. 18.
대충 빠르게 읽어보는 KITTI dataset 논문 [2022 추가] 제가 카메라랑 depth estimation을 시작할지는 꿈에도 몰랐네요 과거에 이런 글을 쓰다니.... 데이터 다운받고 관련 논문 읽는건 요즘 포스팅중. 그나저나 현대차 주가 언제 오를거임? ㅡㅡㅡ Visual Odometry 데이터셋을 사용하고싶다. 그런데 공홈에 별로 설명이 없다. 귀찮아서 사실 이것까지 보고싶진 않았는데, camera calibration도 공부해야하고 데이터셋에 들어있는 각 파라미터 의미가 뭔지 설명이 제대로 없어가지고 도통 알아먹을수가 없어서 읽어야겠다. 자율주행 궁금하기도 했으니 KITTI dataset 논문을 보자. 현대차 주주니까! 굿 "Are we ready for Autonomous Driving? The KITTI Vision Benchmark Su.. 2021. 6. 30.
DF-VO 논문 리뷰 & 코드 셋업해보기 아래 깃허브는 두 논문에 대한 코드 Visual Odometry Revisited: What Should Be Learnt? DF-VO: What Should Be Learnt for Visual Odometry? https://github.com/Huangying-Zhan/DF-VO KITTI Dataset도 미리미리 잘 다운 받아주자. 링크 요청하면 빨리 왔다. 과정 (별거없음) conda를 사용하라고 한다. 매우 살짝 빈정이 상하지만 도커 위에 얹어보기로 한다... 난 도커가 있어야하니까 설치하는동안 KITTI Odometry 데이터셋 압축을 풀어주자. 압축해제가 오래 걸린다. 심볼릭 링크를 추가하라는데 귀찮아서 안했다. 뭐... config 파일 바꿔주자 import 에러: libs가 없다고 뜬다.. 2021. 6. 17.
반응형