Edit model card

💨👁️ Vikhr-2-VL-2b-Instruct-experimental

Vikhr-2-VL-2b-Instruct-experimental — это компактная VLM модель на базе Qwen2-VL-2B-Instruct, обученная на переведенном датасете LLAVA-150K, специально доученная для обработки на русском языке. Дообученная модель является эксперементальной и не всегда будет работать ожидаемо (особенно OCR). Для обратной связи используйте Vikhr Models

Попробовать / Try now:

Open In Colab

Авторы / Authors

@inproceedings{nikolich2024vikhr,
  title={Vikhr: Constructing a State-of-the-art Bilingual Open-Source Instruction-Following Large Language Model for {Russian}},
  author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov },
  booktitle = {Proceedings of the 4rd Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024}
  year={2024},
  publisher = {Association for Computational Linguistics},
  url={https://arxiv.org/pdf/2405.13929}
}
Downloads last month
258
Safetensors
Model size
2.21B params
Tensor type
FP16
·
Inference Examples
Inference API (serverless) does not yet support transformers models for this pipeline type.

Model tree for Vikhrmodels/Vikhr-2-VL-2b-Instruct-experimental

Finetuned
(18)
this model