diff --git a/.DS_Store b/.DS_Store
new file mode 100644
index 0000000..2dea330
Binary files /dev/null and b/.DS_Store differ
diff --git a/README.md b/README.md
index 92c8f5f..877cb69 100644
--- a/README.md
+++ b/README.md
@@ -1,13 +1,12 @@
+
-
-
-# Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding
+# Video-LLaMA: Video Anlamada Eğitimli Görsel-İşitsel Dil Modeli
-This is the repo for the Video-LLaMA project, which is working on empowering large language models with video and audio understanding capabilities.
+Bu, büyük dil modellerini video ve ses anlama yetenekleriyle güçlendirmeyi amaçlayan Video-LLaMA projesinin deposudur.

@@ -17,204 +16,201 @@ This is the repo for the Video-LLaMA project, which is working on empowering lar
-## News
-- [2024.06.03] 🚀🚀 We officially launch VideoLLaMA2 with stronger performances and easier-to-use codebase, come to try it out!
-- [11.14] ⭐️ The current README file is for **Video-LLaMA-2** (LLaMA-2-Chat as language decoder) only, instructions for using the previous version of Video-LLaMA (Vicuna as language decoder) can be found at [here](https://github.com/DAMO-NLP-SG/Video-LLaMA/blob/main/README_Vicuna.md).
-- [08.03] 🚀🚀 Release **Video-LLaMA-2** with [Llama-2-7B/13B-Chat](https://huggingface.co/meta-llama) as language decoder
- - **NO** delta weights and separate Q-former weights anymore, full weights to run Video-LLaMA are all here :point_right: [[7B](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Finetuned)][[13B](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned)]
- - Allow further customization starting from our pre-trained checkpoints [[7B-Pretrained](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Pretrained)] [[13B-Pretrained](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Pretrained)]
-- [06.14] **NOTE**: The current online interactive demo is primarily for English chatting and it may **NOT** be a good option to ask Chinese questions since Vicuna/LLaMA does not represent Chinese texts very well.
-- [06.13] **NOTE**: The audio support is **ONLY** for Vicuna-7B by now although we have several VL checkpoints available for other decoders.
-- [06.10] **NOTE**: We have NOT updated the HF demo yet because the whole framework (with the audio branch) cannot run normally on A10-24G. The current running demo is still the previous version of Video-LLaMA. We will fix this issue soon.
-- [06.08] 🚀🚀 Release the checkpoints of the audio-supported Video-LLaMA. Documentation and example outputs are also updated.
-- [05.22] 🚀🚀 Interactive demo online, try our Video-LLaMA (with **Vicuna-7B** as language decoder) at [Hugging Face](https://huggingface.co/spaces/DAMO-NLP-SG/Video-LLaMA) and [ModelScope](https://pre.modelscope.cn/studios/damo/video-llama/summary)!!
-- [05.22] ⭐️ Release **Video-LLaMA v2** built with Vicuna-7B
-- [05.18] 🚀🚀 Support video-grounded chat in Chinese
- - [**Video-LLaMA-BiLLA**](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series/resolve/main/finetune-billa7b-zh.pth): we introduce [BiLLa-7B-SFT](https://huggingface.co/Neutralzz/BiLLa-7B-SFT) as language decoder and fine-tune the video-language aligned model (i.e., stage 1 model) with machine-translated [VideoChat](https://github.com/OpenGVLab/InternVideo/tree/main/Data/instruction_data) instructions.
- - [**Video-LLaMA-Ziya**](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series/resolve/main/finetune-ziya13b-zh.pth): same with Video-LLaMA-BiLLA but the language decoder is changed to [Ziya-13B](https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1).
-- [05.18] ⭐️ Create a Hugging Face [repo](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series) to store the model weights of all the variants of our Video-LLaMA.
-- [05.15] ⭐️ Release [**Video-LLaMA v2**](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series/resolve/main/finetune-vicuna13b-v2.pth): we use the training data provided by [VideoChat](https://github.com/OpenGVLab/InternVideo/tree/main/Data/instruction_data) to further enhance the instruction-following capability of Video-LLaMA.
-- [05.07] Release the initial version of **Video-LLaMA**, including its pre-trained and instruction-tuned checkpoints.
+## Haberler
+- [2024.06.03] 🚀🚀 Daha güçlü performans ve kullanımı daha kolay kod tabanı ile VideoLLaMA2'yi resmi olarak yayınlıyoruz, deneyin!
+- [11.14] ⭐️ Mevcut README dosyası yalnızca **Video-LLaMA-2** (dil çözücü olarak LLaMA-2-Chat) içindir, önceki Video-LLaMA sürümünü (dil çözücü olarak Vicuna) kullanma talimatlarına [buradan](https://github.com/DAMO-NLP-SG/Video-LLaMA/blob/main/README_Vicuna.md) ulaşabilirsiniz.
+- [08.03] 🚀🚀 Dil çözücü olarak [Llama-2-7B/13B-Chat](https://huggingface.co/meta-llama) kullanan **Video-LLaMA-2**'yi yayınladık
+ - Artık delta ağırlıkları ve ayrı Q-former ağırlıkları YOK, Video-LLaMA'yı çalıştırmak için gereken tüm ağırlıklar burada :point_right: [[7B](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Finetuned)][[13B](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned)]
+ - Önceden eğitilmiş kontrol noktalarımızdan başlayarak daha fazla özelleştirmeye izin verir [[7B-Pretrained](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Pretrained)] [[13B-Pretrained](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Pretrained)]
+- [06.14] **NOT**: Mevcut çevrimiçi interaktif demo öncelikle İngilizce sohbet içindir ve Vicuna/LLaMA Çince metinleri çok iyi temsil edemediğinden Çince sorular sormak için **İYİ** bir seçenek olmayabilir.
+- [06.13] **NOT**: Şu anda diğer çözücüler için birkaç VL kontrol noktamız olmasına rağmen, ses desteği **YALNIZCA** Vicuna-7B içindir.
+- [06.10] **NOT**: Tüm çerçeve (ses dalı ile) A10-24G'de normal olarak çalışamadığından HF demosunu henüz güncellemedik. Mevcut çalışan demo hala önceki Video-LLaMA sürümüdür. Bu sorunu yakında düzelteceğiz.
+- [06.08] 🚀🚀 Ses destekli Video-LLaMA'nın kontrol noktalarını yayınladık. Dokümantasyon ve örnek çıktılar da güncellendi.
+- [05.22] 🚀🚀 İnteraktif demo çevrimiçi, Video-LLaMA'mızı (dil çözücü olarak **Vicuna-7B** ile) [Hugging Face](https://huggingface.co/spaces/DAMO-NLP-SG/Video-LLaMA) ve [ModelScope](https://pre.modelscope.cn/studios/damo/video-llama/summary)'da deneyin!!
+- [05.22] ⭐️ Vicuna-7B ile oluşturulan **Video-LLaMA v2**'yi yayınladık
+- [05.18] 🚀🚀 Çince video tabanlı sohbeti destekler
+ - [**Video-LLaMA-BiLLA**](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series/resolve/main/finetune-billa7b-zh.pth): Dil çözücü olarak [BiLLa-7B-SFT](https://huggingface.co/Neutralzz/BiLLa-7B-SFT)'yi tanıttık ve video-dil hizalı modeli (yani, aşama 1 modeli) makine çevirisi yapılmış [VideoChat](https://github.com/OpenGVLab/InternVideo/tree/main/Data/instruction_data) talimatları ile ince ayar yaptık.
+ - [**Video-LLaMA-Ziya**](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series/resolve/main/finetune-ziya13b-zh.pth): Video-LLaMA-BiLLA ile aynı ancak dil çözücü [Ziya-13B](https://huggingface.co/IDEA-CCNL/Ziya-LLaMA-13B-v1) olarak değiştirildi.
+- [05.18] ⭐️ Video-LLaMA'mızın tüm varyantlarının model ağırlıklarını saklamak için bir Hugging Face [deposu](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series) oluşturduk.
+- [05.15] ⭐️ [**Video-LLaMA v2**](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-Series/resolve/main/finetune-vicuna13b-v2.pth)'yi yayınladık: Video-LLaMA'nın talimat izleme yeteneğini daha da geliştirmek için [VideoChat](https://github.com/OpenGVLab/InternVideo/tree/main/Data/instruction_data) tarafından sağlanan eğitim verilerini kullandık.
+- [05.07] Önceden eğitilmiş ve talimat ayarlı kontrol noktaları dahil olmak üzere **Video-LLaMA**'nın ilk sürümünü yayınladık.
-## Introduction
-
-
-- Video-LLaMA is built on top of [BLIP-2](https://github.com/salesforce/LAVIS/tree/main/projects/blip2) and [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4). It is composed of two core components: (1) Vision-Language (VL) Branch and (2) Audio-Language (AL) Branch.
- - **VL Branch** (Visual encoder: ViT-G/14 + BLIP-2 Q-Former)
- - A two-layer video Q-Former and a frame embedding layer (applied to the embeddings of each frame) are introduced to compute video representations.
- - We train VL Branch on the Webvid-2M video caption dataset with a video-to-text generation task. We also add image-text pairs (~595K image captions from [LLaVA](https://github.com/haotian-liu/LLaVA)) into the pre-training dataset to enhance the understanding of static visual concepts.
- - After pre-training, we further fine-tune our VL Branch using the instruction-tuning data from [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4), [LLaVA](https://github.com/haotian-liu/LLaVA) and [VideoChat](https://github.com/OpenGVLab/Ask-Anything).
- - **AL Branch** (Audio encoder: ImageBind-Huge)
- - A two-layer audio Q-Former and an audio segment embedding layer (applied to the embedding of each audio segment) are introduced to compute audio representations.
- - As the used audio encoder (i.e., ImageBind) is already aligned across multiple modalities, we train AL Branch on video/image instruction data only, just to connect the output of ImageBind to the language decoder.
-- Only the Video/Audio Q-Former, positional embedding layers, and linear layers are trainable during cross-modal training.
-
+## Giriş
+- Video-LLaMA, [BLIP-2](https://github.com/salesforce/LAVIS/tree/main/projects/blip2) ve [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4) üzerine inşa edilmiştir. İki temel bileşenden oluşur: (1) Görüntü-Dil (VL) Dalı ve (2) Ses-Dil (AL) Dalı.
+ - **VL Dalı** (Görsel kodlayıcı: ViT-G/14 + BLIP-2 Q-Former)
+ - Video temsillerini hesaplamak için iki katmanlı bir video Q-Former ve bir kare gömme katmanı (her karenin gömülmelerine uygulanan) tanıtılmıştır.
+ - VL Dalını Webvid-2M video başlık veri setinde video-metin üretme görevi ile eğitiyoruz. Statik görsel kavramların anlaşılmasını geliştirmek için ön eğitim veri setine görüntü-metin çiftleri (~595K görüntü başlığı [LLaVA](https://github.com/haotian-liu/LLaVA)'dan) de ekledik.
+ - Ön eğitimden sonra, VL Dalımızı [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4), [LLaVA](https://github.com/haotian-liu/LLaVA) ve [VideoChat](https://github.com/OpenGVLab/Ask-Anything)'ten alınan talimat ayarlama verileri kullanarak daha da ince ayar yapıyoruz.
+ - **AL Dalı** (Ses kodlayıcı: ImageBind-Huge)
+ - Ses temsillerini hesaplamak için iki katmanlı bir ses Q-Former ve bir ses segment gömme katmanı (her ses segmentinin gömülmesine uygulanan) tanıtılmıştır.
+ - Kullanılan ses kodlayıcı (yani ImageBind) zaten birden çok modalite arasında hizalanmış olduğundan, AL Dalını yalnızca ImageBind çıkışını dil çözücüye bağlamak için sadece video/görüntü talimat verileri üzerinde eğitiyoruz.
+- Çapraz modal eğitim sırasında yalnızca Video/Ses Q-Former, konumsal gömme katmanları ve doğrusal katmanlar eğitilebilir.
-## Example Outputs
+## Örnek Çıktılar
-
-- **Video with background sound**
+- **Arka plan sesli video**
-
-- **Video without sound effects**
+- **Ses efektsiz video**
-- **Static image**
+- **Statik görüntü**
+## Önceden Eğitilmiş & İnce Ayarlı Kontrol Noktaları
+~~Aşağıdaki kontrol noktaları yalnızca öğrenilebilir parametreleri (konumsal gömme katmanları, Video/Ses Q-former ve doğrusal projeksiyon katmanları) saklar.~~
-## Pre-trained & Fine-tuned Checkpoints
-
-~~The following checkpoints store learnable parameters (positional embedding layers, Video/Audio Q-former, and linear projection layers) only.~~
+Aşağıdaki kontrol noktaları Video-LLaMA'yı başlatmak için tam ağırlıklardır (görsel kodlayıcı + ses kodlayıcı + Q-Former'lar + dil çözücü):
-The following checkpoints are the full weights (visual encoder + audio encoder + Q-Formers + language decoder) to launch Video-LLaMA:
-
-| Checkpoint | Link | Note |
+| Kontrol Noktası | Bağlantı | Not |
|:------------------|-------------|-------------|
-| Video-LLaMA-2-7B-Pretrained | [link](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned/tree/main) | Pre-trained on WebVid (2.5M video-caption pairs) and LLaVA-CC3M (595k image-caption pairs) |
-| Video-LLaMA-2-7B-Finetuned | [link](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Finetuned/tree/main) | Fine-tuned on the instruction-tuning data from [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4), [LLaVA](https://github.com/haotian-liu/LLaVA) and [VideoChat](https://github.com/OpenGVLab/Ask-Anything)|
-| Video-LLaMA-2-13B-Pretrained | [link](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Pretrained/tree/main) | Pre-trained on WebVid (2.5M video-caption pairs) and LLaVA-CC3M (595k image-caption pairs) |
-| Video-LLaMA-2-13B-Finetuned | [link](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned/tree/main) | Fine-tuned on the instruction-tuning data from [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4), [LLaVA](https://github.com/haotian-liu/LLaVA) and [VideoChat](https://github.com/OpenGVLab/Ask-Anything)|
-
-
-## Usage
-#### Environment Preparation
+| Video-LLaMA-2-7B-Pretrained | [bağlantı](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned/tree/main) | WebVid (2.5M video-başlık çifti) ve LLaVA-CC3M (595k görüntü-başlık çifti) üzerinde önceden eğitilmiş |
+| Video-LLaMA-2-7B-Finetuned | [bağlantı](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Finetuned/tree/main) | [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4), [LLaVA](https://github.com/haotian-liu/LLaVA) ve [VideoChat](https://github.com/OpenGVLab/Ask-Anything)'ten alınan talimat ayarlama verileri üzerinde ince ayar yapılmış |
-First, install ffmpeg.
-```
-apt update
-apt install ffmpeg
-```
-Then, create a conda environment:
-```
-conda env create -f environment.yml
-conda activate videollama
-```
+| Video-LLaMA-2-13B-Pretrained | [bağlantı](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Pretrained/tree/main) | 7B modeli ile aynı ancak daha büyük dil çözücü (LLaMA-2-13B-Chat) |
+| Video-LLaMA-2-13B-Finetuned | [bağlantı](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned/tree/main) | 7B modeli ile aynı ancak daha büyük dil çözücü (LLaMA-2-13B-Chat) |
+## Kurulum
-## Prerequisites
-
-~~Before using the repository, make sure you have obtained the following checkpoints:~~
-
-DON'T have to do anything now!!
-
-## How to Run Demo Locally
-
-Firstly, set the `llama_model` (for the path to the language decoder), `imagebind_ckpt_path` (for the path to the audio encoder), `ckpt` (for the path to VL branch) and `ckpt_2` (for the path to AL branch) in [eval_configs/video_llama_eval_withaudio.yaml](./eval_configs/video_llama_eval_withaudio.yaml) accordingly.
-Then run the script:
-```
-python demo_audiovideo.py \
- --cfg-path eval_configs/video_llama_eval_withaudio.yaml \
- --model_type llama_v2 \ # or vicuna
- --gpu-id 0
+1. Depoyu klonlayın ve bağımlılıkları yükleyin:
+```bash
+git clone https://github.com/DAMO-NLP-SG/Video-LLaMA.git
+cd Video-LLaMA
+pip install -r requirements.txt
```
-## Training
-
-The training of each cross-modal branch (i.e., VL branch or AL branch) in Video-LLaMA consists of two stages,
+2. Gerekli modellerle ilgili detaylara [buradan](https://github.com/huggingface/transformers/blob/main/src/transformers/models/llama/convert_llama_weights_to_hf.py) ulaşabilirsiniz:
+- LLaMA-2-7B/13B-Chat
+- İndirdiğiniz LLaMA-2 model dizinini `model_path`'de belirttiğiniz yere yerleştirin (bkz: aşağıdaki demo kodu).
-1. Pre-training on the [Webvid-2.5M](https://github.com/m-bain/webvid) video caption dataset and [LLaVA-CC3M]((https://github.com/haotian-liu/LLaVA)) image caption dataset.
+3. Eva ViT görsel kodlayıcıyı ve ImageBind ses kodlayıcıyı içeren [model ön eğitimi kaydını](https://huggingface.co/DAMO-NLP-SG/Video-LLaMA-2-7B-Finetuned/tree/main) indirin.
-2. Fine-tuning using the image-based instruction-tuning data from [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4)/[LLaVA](https://github.com/haotian-liu/LLaVA) and the video-based instruction-tuning data from [VideoChat](https://github.com/OpenGVLab/Ask-Anything).
-
-### 1. Pre-training
-#### Data Preparation
-Download the metadata and video following the instructions from the official Github repo of [Webvid](https://github.com/m-bain/webvid).
-The folder structure of the dataset is shown below:
-```
-|webvid_train_data
-|──filter_annotation
-|────0.tsv
-|──videos
-|────000001_000050
-|──────1066674784.mp4
-```
-```
-|cc3m
-|──filter_cap.json
-|──image
-|────GCC_train_000000000.jpg
-|────...
-```
-#### Script
-Config the checkpoint and dataset paths in [visionbranch_stage1_pretrain.yaml](./train_configs/visionbranch_stage1_pretrain.yaml) and [audiobranch_stage1_pretrain.yaml](audiobranch_stage1_pretrain.yaml) respectively. Then, run the script:
-```
-conda activate videollama
-# for pre-training VL branch
-torchrun --nproc_per_node=8 train.py --cfg-path ./train_configs/audiobranch_stage1_pretrain.yaml
-
-# for pre-training AL branch
-torchrun --nproc_per_node=8 train.py --cfg-path ./train_configs/audiobranch_stage1_pretrain.yaml
-```
-
-### 2. Instruction Fine-tuning
-#### Data
-For now, the fine-tuning dataset consists of:
-* 150K image-based instructions from LLaVA [[link](https://huggingface.co/datasets/liuhaotian/LLaVA-Instruct-150K/raw/main/llava_instruct_150k.json)]
-* 3K image-based instructions from MiniGPT-4 [[link](https://github.com/Vision-CAIR/MiniGPT-4/blob/main/dataset/README_2_STAGE.md)]
-* 11K video-based instructions from VideoChat [[link](https://github.com/OpenGVLab/InternVideo/tree/main/Data/instruction_data)]
-
-#### Script
-Config the checkpoint and dataset paths in [visionbranch_stage2_pretrain.yaml](./train_configs/visionbranch_stage2_pretrain.yaml) and [audiobranch_stage2_pretrain.yaml](audiobranch_stage2_pretrain.yaml) respectively. Then, run the following script:
-```
-conda activate videollama
-# for fine-tuning VL branch
-torchrun --nproc_per_node=8 train.py --cfg-path ./train_configs/visionbranch_stage2_finetune.yaml
-
-# for fine-tuning AL branch
-torchrun --nproc_per_node=8 train.py --cfg-path ./train_configs/audiobranch_stage2_finetune.yaml
-```
-
-## Recommended GPUs
-* Pre-training: 8xA100 (80G)
-* Instruction-tuning: 8xA100 (80G)
-* Inference: 1xA100 (40G/80G) or 1xA6000
-
-## Acknowledgement
-We are grateful for the following awesome projects our Video-LLaMA arising from:
-* [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4): Enhancing Vision-language Understanding with Advanced Large Language Models
-* [FastChat](https://github.com/lm-sys/FastChat): An Open Platform for Training, Serving, and Evaluating Large Language Model based Chatbots
-* [BLIP-2](https://github.com/salesforce/LAVIS/tree/main/projects/blip2): Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models
-* [EVA-CLIP](https://github.com/baaivision/EVA/tree/master/EVA-CLIP): Improved Training Techniques for CLIP at Scale
-* [ImageBind](https://github.com/facebookresearch/ImageBind): One Embedding Space To Bind Them All
-* [LLaMA](https://github.com/facebookresearch/llama): Open and Efficient Foundation Language Models
-* [VideoChat](https://github.com/OpenGVLab/Ask-Anything): Chat-Centric Video Understanding
-* [LLaVA](https://github.com/haotian-liu/LLaVA): Large Language and Vision Assistant
-* [WebVid](https://github.com/m-bain/webvid): A Large-scale Video-Text dataset
-* [mPLUG-Owl](https://github.com/X-PLUG/mPLUG-Owl/tree/main): Modularization Empowers Large Language Models with Multimodality
-
-The logo of Video-LLaMA is generated by [Midjourney](https://www.midjourney.com/).
-
-
-## Term of Use
-Our Video-LLaMA is just a research preview intended for non-commercial use only. You must **NOT** use our Video-LLaMA for any illegal, harmful, violent, racist, or sexual purposes. You are strictly prohibited from engaging in any activity that will potentially violate these guidelines.
-
-## Citation
-If you find our project useful, hope you can star our repo and cite our paper as follows:
-```
-@article{damonlpsg2023videollama,
- author = {Zhang, Hang and Li, Xin and Bing, Lidong},
- title = {Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding},
- year = 2023,
- journal = {arXiv preprint arXiv:2306.02858},
- url = {https://arxiv.org/abs/2306.02858}
+4. Video içinden kare çıkarmak için ffmpeg kurulu olmalıdır, örneğin:
+```bash
+# Ubuntu
+apt update
+apt install ffmpeg
+# Windows (PowerShell Admin)
+choco install ffmpeg
+# MacOS
+brew install ffmpeg
+```
+
+## Demo Başlatma
+
+**Not**: Video-LLaMA'nın ses desteğinin **YALNIZCA** Vicuna-7B için olduğunu ve diğer dil çözücüleri için henüz mevcut olmadığını lütfen unutmayın.
+
+1. Online Demo veya Local Demo arasında seçim yapın:
+
+### Online Demo
+- [ModelScope](https://modelscope.cn/studios/damo/video-llama/summary)
+- [Hugging Face](https://huggingface.co/spaces/DAMO-NLP-SG/Video-LLaMA)
+
+### Local Demo
+**Not**: Ses desteğinin **YALNIZCA** Vicuna-7B için olduğunu ve diğer dil çözücüleri için henüz mevcut olmadığını lütfen unutmayın.
+```python
+import torch
+from video_llama.constants import *
+from video_llama.conversation import conv_templates, SeparatorStyle
+from video_llama.model.builder import load_pretrained_model
+from video_llama.utils.utils import disable_torch_init
+from video_llama.processor import load_processor, process_images, process_video, process_audio
+
+# ffmpeg yüklü olmalıdır
+def initialize_model(model_path):
+ disable_torch_init()
+
+ model_name = "video_llama"
+ device = torch.device("cuda") if torch.cuda.is_available() else "cpu"
+
+ model = load_pretrained_model(
+ model_path=model_path,
+ model_base=None,
+ model_name=model_name,
+ device=device,
+ half=True,
+ verbose=True
+ )
+
+ vis_processor = load_processor()
+ return model, vis_processor, device
+
+# Modeli yükle
+model_path = "DAMO-NLP-SG/Video-LLaMA-2-7B-Finetuned" # veya "DAMO-NLP-SG/Video-LLaMA-2-13B-Finetuned"
+model, vis_processor, device = initialize_model(model_path)
+
+# Konuşmayı başlat
+conv = conv_templates["v1"].copy()
+conv.messages = []
+
+# Herhangi bir video/görüntü/ses girdisi ile etkileşime geç
+video_path = "val_video/1.mp4"
+prompt = "Bu videoda ne oluyor?"
+
+if video_path.endswith(('.mp4', '.avi', '.mov')): # Video dosyası
+ imgs, audio = process_video(video_path, vis_processor, device)
+ audio_flag = True if audio is not None else False
+ if len(imgs) > 0: # Video kareleri başarıyla çıkarıldıysa
+ conv.append_message(conv.roles[0], prompt)
+ conv.append_message(conv.roles[1], "Anlayabilmem için biraz düşünmeme izin verin...")
+ output = model.generate(imgs, audio if audio_flag else None, conv, temperature=0.7 if audio_flag else 0.2)
+ conv.messages[-1][-1] = output
+ print(f"Asistan: {output}")
+
+elif video_path.endswith(('.jpg', '.png')): # Görüntü dosyası
+ image = process_images(video_path, vis_processor, device)
+ if image is not None: # Görüntü başarıyla yüklendiyse
+ conv.append_message(conv.roles[0], prompt)
+ conv.append_message(conv.roles[1], "Anlayabilmem için biraz düşünmeme izin verin...")
+ output = model.generate(image, None, conv, temperature=0.2)
+ conv.messages[-1][-1] = output
+ print(f"Asistan: {output}")
+
+else:
+ print("Desteklenmeyen dosya formatı!")
+```
+
+## Sınırlamalar ve Sorumluluk Reddi
+
+* Video-LLaMA zaman zaman halüsinasyonlar yaşayabilir, bu nedenle sonuçların doğruluğundan emin olunması önerilir.
+* Video-LLaMA tehlikeli, yasa dışı, açık saçık, önyargılı ya da başka şekilde uygunsuz içerik üretmemeye çalışsa da beklenmedik sonuçlar üretebilir.
+* Video-LLaMA'nın çıktıları yalnızca araştırma amaçlı kullanılmalıdır.
+* İlk ısınma çıktısının kalitesi genellikle düşük olabilir.
+
+## Atıfta Bulunma
+
+```bibtex
+@article{zhang2023videollama,
+ title={Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding},
+ author={Zhang, Hang and Li, Xin and Bing, Lidong},
+ journal={arXiv preprint arXiv:2306.02858},
+ year={2023}
}
```
+## Lisans
+- Video-LLaMA'nın kaynak kodu [Apache 2.0](LICENSE) lisansı altında yayınlanmıştır.
+- Kullandığımız modeller ve veri setleri için lütfen ilgili lisanslara başvurun: [LLaMA](https://github.com/facebookresearch/llama), [ImageBind](https://github.com/facebookresearch/ImageBind), [Eva-CLIP](https://github.com/baaivision/EVA/tree/master/EVA-CLIP).
+
+## Teşekkürler
+- [BLIP-2](https://huggingface.co/docs/transformers/main/model_doc/blip-2) video-dil ön eğitimi için temel almış olduğumuz görüntü-dil modelidir.
+- [ImageBind](https://github.com/facebookresearch/ImageBind) ses modalitesini diğer modalitelerle hizalamak için kullanılmıştır.
+- [MiniGPT-4](https://github.com/Vision-CAIR/MiniGPT-4) temel etkileşim kodu ve demo UI için temel oluşturmuştur.
+- [LLaMA](https://github.com/facebookresearch/llama) ve [Vicuna](https://github.com/lm-sys/FastChat) dil çözücülerimiz için temel modellerdir.
+- [🤗 Hugging Face](https://github.com/huggingface) tüm modeller ve uygulamaları barındırdığı için kullanılmıştır.
\ No newline at end of file