exdysa RefalMachine commited on
Commit
77c9499
0 Parent(s):

Duplicate from msu-rcc-lair/RuadaptQwen2.5-32B-instruct-GGUF

Browse files

Co-authored-by: Mikhail <RefalMachine@users.noreply.huggingface.co>

Files changed (10) hide show
  1. .gitattributes +43 -0
  2. Q2_K.gguf +3 -0
  3. Q3_K_M.gguf +3 -0
  4. Q4_0.gguf +3 -0
  5. Q4_K_M.gguf +3 -0
  6. Q5_0.gguf +3 -0
  7. Q5_K_M.gguf +3 -0
  8. Q6_K.gguf +3 -0
  9. Q8_0.gguf +3 -0
  10. README.md +62 -0
.gitattributes ADDED
@@ -0,0 +1,43 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ *.7z filter=lfs diff=lfs merge=lfs -text
2
+ *.arrow filter=lfs diff=lfs merge=lfs -text
3
+ *.bin filter=lfs diff=lfs merge=lfs -text
4
+ *.bz2 filter=lfs diff=lfs merge=lfs -text
5
+ *.ckpt filter=lfs diff=lfs merge=lfs -text
6
+ *.ftz filter=lfs diff=lfs merge=lfs -text
7
+ *.gz filter=lfs diff=lfs merge=lfs -text
8
+ *.h5 filter=lfs diff=lfs merge=lfs -text
9
+ *.joblib filter=lfs diff=lfs merge=lfs -text
10
+ *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
+ *.mlmodel filter=lfs diff=lfs merge=lfs -text
12
+ *.model filter=lfs diff=lfs merge=lfs -text
13
+ *.msgpack filter=lfs diff=lfs merge=lfs -text
14
+ *.npy filter=lfs diff=lfs merge=lfs -text
15
+ *.npz filter=lfs diff=lfs merge=lfs -text
16
+ *.onnx filter=lfs diff=lfs merge=lfs -text
17
+ *.ot filter=lfs diff=lfs merge=lfs -text
18
+ *.parquet filter=lfs diff=lfs merge=lfs -text
19
+ *.pb filter=lfs diff=lfs merge=lfs -text
20
+ *.pickle filter=lfs diff=lfs merge=lfs -text
21
+ *.pkl filter=lfs diff=lfs merge=lfs -text
22
+ *.pt filter=lfs diff=lfs merge=lfs -text
23
+ *.pth filter=lfs diff=lfs merge=lfs -text
24
+ *.rar filter=lfs diff=lfs merge=lfs -text
25
+ *.safetensors filter=lfs diff=lfs merge=lfs -text
26
+ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
27
+ *.tar.* filter=lfs diff=lfs merge=lfs -text
28
+ *.tar filter=lfs diff=lfs merge=lfs -text
29
+ *.tflite filter=lfs diff=lfs merge=lfs -text
30
+ *.tgz filter=lfs diff=lfs merge=lfs -text
31
+ *.wasm filter=lfs diff=lfs merge=lfs -text
32
+ *.xz filter=lfs diff=lfs merge=lfs -text
33
+ *.zip filter=lfs diff=lfs merge=lfs -text
34
+ *.zst filter=lfs diff=lfs merge=lfs -text
35
+ *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ Q2_K.gguf filter=lfs diff=lfs merge=lfs -text
37
+ Q3_K_M.gguf filter=lfs diff=lfs merge=lfs -text
38
+ Q4_0.gguf filter=lfs diff=lfs merge=lfs -text
39
+ Q4_K_M.gguf filter=lfs diff=lfs merge=lfs -text
40
+ Q5_0.gguf filter=lfs diff=lfs merge=lfs -text
41
+ Q5_K_M.gguf filter=lfs diff=lfs merge=lfs -text
42
+ Q6_K.gguf filter=lfs diff=lfs merge=lfs -text
43
+ Q8_0.gguf filter=lfs diff=lfs merge=lfs -text
Q2_K.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a165088913bb099285d3a17bba17ef50749b6316ffead52a937829a6717e2bb3
3
+ size 12285679936
Q3_K_M.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:b98e179b52e062ab7ff006f48a53e3b069b08302dd4d89237119f47625d79aec
3
+ size 15905100096
Q4_0.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:03c3f9fc4a183d7439252f91ad8dd2fb4387354be166ea7b6852c86b4621ebc5
3
+ size 18606975296
Q4_K_M.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5425034a1864304d9997c1f4b9e818b4eb3aed6248c9ac982cff6e1f5308deda
3
+ size 19818080576
Q5_0.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1e41bfb1f7acc93876b5e43ff13f2efbf565fffc478f1578f6dfa719669a2744
3
+ size 22601886016
Q5_K_M.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d07efcafa26d28cffe2a402d6010bdc92097bccdab9a7842d40734e690211bd4
3
+ size 23225788736
Q6_K.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:a0824b8152f6a791431696270f0a2f47748bfb8a6001a54f6f2bf1bf0629a9d7
3
+ size 26846478656
Q8_0.gguf ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:e063447a7b8b0c26a843c8765049a5e37ff50c8ba45a4d1021b2eec62c74abe2
3
+ size 34769146176
README.md ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ datasets:
3
+ - IlyaGusev/saiga_scored
4
+ - IlyaGusev/saiga_preferences
5
+ - dichspace/darulm
6
+ language:
7
+ - ru
8
+ pipeline_tag: text-generation
9
+ license: apache-2.0
10
+ ---
11
+
12
+ ## Описание модели
13
+
14
+ GGUF версия. WORK IN PROGRESS!!! Текущая версия v1.
15
+
16
+ Инструктивная версия адаптированной на русский язык модели Qwen2.5-32B. В модели был заменен токенизатор, затем произведено дообучение (Continued pretraining) на русскоязычном корпусе, после чего была применена техника LEP (Learned Embedding Propagation, paper will be soon).
17
+
18
+ Благодаря новому токенизатору (расширенный tiktoken cl100k с помощью униграм токенизатора на 48 т. токенов) скорость генерации* русскоязычных текстов возрасла до 60% по сравнению с исходной моделью Qwen-2.5-32B-Instruct.
19
+
20
+ *Под скоростью генерации подразумевается количество русскоязычных символов/слов в секунду на одинаковых текстовых последовательностях.
21
+
22
+ ## Попробовать
23
+
24
+ Модель можно попробовать в поднятом Space (внизу в параметрах выбор модели):
25
+ https://huggingface.co/spaces/RefalMachine/RuadaptQwen2.5
26
+
27
+ ## Токенизация
28
+
29
+
30
+ ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/O4eQEhnowETEatDPcmArB.png)
31
+
32
+
33
+ ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/oW0Q6LzD_Py3GdH0kfqu4.png)
34
+
35
+ ## Метрики и оценка качества
36
+
37
+ Модель была оценена на Ru-Arena-General, MERA, llmtf_open
38
+
39
+ #### Результаты на Ru-Arena-General
40
+
41
+ TODO
42
+
43
+ #### Результаты на MERA
44
+
45
+ Для сабмита на MERA был подготовлен кастомный системный промпт, который смягчает недостатки оценки на кодовых задачах. Для сравнения был также сделан сабмит с этим же системным промптом оригинальной модели.
46
+
47
+ ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/PwPTdwp0synSCE2Nn75xE.png)
48
+
49
+
50
+ #### Результаты на llmtf_open
51
+
52
+ TODO
53
+
54
+ ## How to cite:
55
+
56
+ Tikhomirov M., Chernyshev D. Facilitating large language model Russian adaptation with Learned Embedding Propagation // 2024 (will be soon)
57
+
58
+ Tikhomirov M., Chernyshev D. Impact of Tokenization on LLaMa Russian Adaptation //2023 Ivannikov Ispras Open Conference (ISPRAS). – IEEE, 2023. – С. 163-168.
59
+
60
+ ## Предупреждение
61
+
62
+ Ответы модели не отражают мнения авторов, а лишь повторяют знания полученные из данных на всех этапах обучения (предобучение, смена токенизатора, обучение на инструкциях, калибровка качества ответов). Модель была получена из сторонней предобученной модели, **контроль за предобучением** которой **не является ответственностью текущих авторов**. При создании данной версии модели не производилось никаких дополнительных действий, направленных на изменение заложенных в LLM "мнений". Используйте с осторожностью.