[Paper Review] Masked Autoencoders Are Scalable Vision Learners
[Paper Review] End-to-End Object Detection with Transformers
[Paper Review] PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation
1. BackGround 1) 3D Representation Depth Map Voxel Grid PointCloud Distance betwee...
1. Huggingface
Huggingface 허깅페이스는~ 1. Trainer 1) Preprocessing data = {"input_ids": [], "attention_mask": [], "labels": 1} input_ids 토큰화된 Input Text ...
10. Self-Supervised Learning
Self-Supervised with Transformer 1) SiT (Self-Supervised Vision Transformer) Reconstruction(이미지 복원을 통한 학습) 2) BEIT (Bert Pre-Training of Image Transformer) Mask Prediction(마스킹된 토큰을 예측함으...
9. Natural Language Processing
Language Models Natural Language의 핵심은 다음과 같다. 의미가 모호함 사람마다 문법이 명확하지 않음 즉, 정답/오답을 구분하기 보다는 확률분포를 계산해야 할 필요가 있다. 1. Models 1) Bag-of-Words 단어들의 순서는 전혀 고려하지 않고, 출현 빈도만을 기록하여 수치화하는 표현방법을 ...
4. 3D Computer Vision
3D Computer Vision 2D Computer Vision의 표현 방법은 하나밖에 존재하지 않았다. 하지만, 3D Computer Vision의 표현 방법은 매우 다양하다. 따라서 이를 먼저 알아보고 각 표현 방법들을 다루는 방법들을 알아보자. 1. BackGround 1) Coordinate 좌표계 ...
3. Generative Model
Generative Model Unsupervised Learning 생성형 모델은 Unsupervised Learning중 한 종류이다. 즉, Training Data에 Label이 존재하지 않다. 그렇다면 어떻게 학습을 진행할 수 있을까? 생성형 모델의 가장 기본적인 Concept는 입력값에 대한 Latent(잠재) Vector를 학습하는 ...
5. Algorithm
1. Unconstrained Minimization [\text{Minimize: } f(\mathbf{x})] $\mathbf{x} \in \mathbb{R}^n,$ $f(\mathbf{x}) \text{는 Convex},$ $f(\mathbf{x}) \text{는 두번 미분 가능}$ Background Minimization을 ...