Video-LLaVA: Learning United Visual Representation by Alignment Before Projection
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/6ca0efd7-0816-488d-a630-d8615e95582d/3e30b8fc10edb891bf0bbc36844517b1.png)
概要
- 既存手法では画像と動画を別々の特徴空間に埋め込む設計であるため、複数のモダリティ間の相互作用を学習するのが難しかった。
- Video-LLaVAは、画像と動画を同じ特徴空間に埋め込めるようにアライメントできる。
- OpenCLIPを利用したLanguageBindエンコーダーを利用することで、画像とテキストの特徴空間を共有
- その上で300万件の動画とテキストのペアを利用して、動画とテキストが特徴空間を共有できるように学習
- 結果として、テキストの特徴空間を介して画像と動画の特徴空間が共有される。
- ‣
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/layerx/5eeb8117-7d46-43c4-8f6a-682e66c3a2b2/495aabacf95e171afa8f32474eee1404.png)