Loading [MathJax]/jax/output/CommonHTML/jax.js

Paper Review/Multi-Modal (MM)

[CVPR 2022] OMNIVORE: A Single Model for Many Visual Modalities

이성훈 Ethan 2023. 7. 27. 00:57

- Introduction

 

 

 

현재, computer vision model 들은 single modal 에 대하여 굉장히 잘 작동함

 

그러나 사람과 같이 modal 에 대한 flexibility 를 가지지 못함

 

 

► Modality-agnostic model 의 필요성

 

Modality-agnostic model 의 장점

  1. Cross-modal generalization: 한 가지 modality 에서 배운 정보를 다른 modality 의 recognition 에 활용할 수 있음
  2. Saves the research and engineering effort: 너무 당연함
  3. Leverage new visual sensors

 

이런 장점들에도 불구하고 다양한 문제(capacity)들로 인해 연구가 거의 되지 않았음

 

 

논문에서 제안하는 OMNIVORE model 은 (1) Image, (2) Video, (3) single-view 3D 를 다룸

 

 

 


- Method

 

 

 

Input Patches

 

 

Input 을 모두 XRT×H×W×C 의 4D tensor 로 표현

 

 

Image: IR1×H×W×3

 

Video: VRT×H×W×3

 

3D Image: DR1×H×W×4

 

 

Model Architecture

 

 

t×h×w×c sized patch into d size embedding

 

All ViT architectures are available - Swin transformer is used in this paper

 

 

Two positional encoding - Spatial dimension, temporal dimension

 

 

f(X)=Φ

 

 

Dataset-specific linear classification layers on top of Φ

 

 


- Experiment

 

TBU


- Discussion

 

별 다른 내용 없다고 느껴짐..


- Reference

[1] Girdhar, Rohit, et al. "Omnivore: A single model for many visual modalities." CVPR 2022 [Paper link]