通常、ほとんどのビデオデータには対応する説明文が付いていないため、ビデオデータをテキストの説明に変換して、テキストからビデオへのモデルに必要なトレーニングデータを提供する必要があります。
- 🔥🔥 ニュース:
2024/9/19
:CogVideoX のトレーニングプロセスで、ビデオデータをテキストに変換するためのキャプションモデル CogVLM2-Caption がオープンソース化されました。ぜひダウンロードしてご利用ください。
🤗 Hugging Face | 🤖 ModelScope
CogVLM2-Captionは、CogVideoXモデルのトレーニングデータを生成するために使用されるビデオキャプションモデルです。
pip install -r requirements.txt
python video_caption.py
例:
Code | 🤗 Hugging Face | 🤖 ModelScope | 📑 Blog | 💬 Online Demo
CogVLM2-Video は、タイムスタンプベースの質問応答機能を備えた多機能なビデオ理解モデルです。ユーザーは このビデオを詳細に説明してください。
などのプロンプトをモデルに入力して、詳細なビデオキャプションを取得できます:
ユーザーは提供されたコードを使用してモデルをロードするか、RESTful API を構成してビデオキャプションを生成できます。
🌟 If you find our work helpful, please leave us a star and cite our paper.
CogVLM2-Caption:
@article{yang2024cogvideox,
title={CogVideoX: Text-to-Video Diffusion Models with An Expert Transformer},
author={Yang, Zhuoyi and Teng, Jiayan and Zheng, Wendi and Ding, Ming and Huang, Shiyu and Xu, Jiazheng and Yang, Yuanming and Hong, Wenyi and Zhang, Xiaohan and Feng, Guanyu and others},
journal={arXiv preprint arXiv:2408.06072},
year={2024}
}
CogVLM2-Video:
@article{hong2024cogvlm2,
title={CogVLM2: Visual Language Models for Image and Video Understanding},
author={Hong, Wenyi and Wang, Weihan and Ding, Ming and Yu, Wenmeng and Lv, Qingsong and Wang, Yan and Cheng, Yean and Huang, Shiyu and Ji, Junhui and Xue, Zhao and others},
journal={arXiv preprint arXiv:2408.16500},
year={2024}
}