Edit model card

Modelo llama v2 7b, treinado em portugues via QLORA, bons resultados com a lingua. testado apenas em windos, cuda 1.2.1, imagino que pelo menos 4GB de ram na GPU é necessária devido a quantização 4bit.

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Examples
Inference API (serverless) is not available, repository is disabled.

Dataset used to train DiegoVSulz/capivarinha_portugues_7Blv2-4bit-128-GPTQ