File size: 601 Bytes
76036aa |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
---
pipeline_tag: text-generation
inference: false
license: apache-2.0
library_name: transformers
tags:
- language
- granite-3.0
base_model: ibm-granite/granite-3.0-3b-a800m-instruct
base_model_relation: quantized
---
ibm-granite様の [granite-3.0-3b-a800m-instruct](https://huggingface.co/ibm-granite/granite-3.0-3b-a800m-instruct) をGGUF形式に変換したものです。
K量子化モデルについてもiMatrix適用してあります。
iMatrixテキストはTFMC様の[c4_en_ja_imatrix.txt](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用しています。
|