jalbarracin
commited on
Commit
•
2a74cc0
1
Parent(s):
83d0e75
Update README.md
Browse files
README.md
CHANGED
@@ -17,33 +17,17 @@ widget:
|
|
17 |
example_title: "Escribir email"
|
18 |
---
|
19 |
|
20 |
-
Esta es una versión más pequeña del modelo google/mt5-base con embeddings solo en español y algunas en inglés obtenidas de https://huggingface.co/JorgeSarry/
|
21 |
-
El número de parámetros del modelo es de 244 millones de parámetros, lo que da como resultado un modelo de 0,9 GB, el 42 % del original.
|
22 |
-
|
23 |
-
Puedes usar este modelo utilizando el tag "instrut5:"
|
24 |
-
|
25 |
-
La gran ventaja es que produce buenos resultados, muchas veces en menos de 1 segundo en CPU.
|
26 |
-
|
27 |
-
=====
|
28 |
-
|
29 |
-
This is a smaller version of the google/mt5-base model with only Spanish and some English embeddings obtained from https://huggingface.co/JorgeSarry/
|
30 |
-
The number of model parameters is 244M parameters, resulting on a model of 0.9GB - 42% of the original one.
|
31 |
-
|
32 |
-
You can use this model starging with the tag "instrut5:"
|
33 |
-
|
34 |
-
The best advantage is that this model produces good results, some times in less than 1 second on CPU
|
35 |
-
|
36 |
-
---
|
37 |
|
38 |
# Spanish Alpaca mT5
|
39 |
|
40 |
-
|
|
|
41 |
|
42 |
-
#
|
43 |
|
44 |
-
##
|
45 |
|
46 |
-
|
47 |
|
48 |
```python
|
49 |
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
@@ -82,4 +66,21 @@ El output de este ejemplo:
|
|
82 |
```
|
83 |
# Colab Notebook de ejemplo
|
84 |
|
85 |
-
Puedes acceder al notebook para que pruebes el modelo aqui: [Modelo Spanish Alpaca mT5] (https://colab.research.google.com/drive/1yWwMH0Opk1C10emYTfYhDWEPVNE7insw)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
17 |
example_title: "Escribir email"
|
18 |
---
|
19 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
20 |
|
21 |
# Spanish Alpaca mT5
|
22 |
|
23 |
+
Este repositorio contiene un modelo mT5 entrenado con el dataset [Bertin Project - Alpaca Spanish](https://huggingface.co/datasets/bertin-project/alpaca-spanish) que además ha sido limpiado y editado por el autor.
|
24 |
+
Puede ponerse en contacto con el autor a través de su cuenta de twitter: @jalbarracin
|
25 |
|
26 |
+
# Uso
|
27 |
|
28 |
+
## Usando el modelo
|
29 |
|
30 |
+
El modelo mT5 en español puede usarse en python siguiendo este ejemplo:
|
31 |
|
32 |
```python
|
33 |
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
|
|
|
66 |
```
|
67 |
# Colab Notebook de ejemplo
|
68 |
|
69 |
+
Puedes acceder al notebook para que pruebes el modelo aqui: [Modelo Spanish Alpaca mT5] (https://colab.research.google.com/drive/1yWwMH0Opk1C10emYTfYhDWEPVNE7insw)
|
70 |
+
|
71 |
+
|
72 |
+
Este modelo ha sido entrenado con la base de datos es una versión más pequeña del modelo google/mt5-base con embeddings solo en español y algunas en inglés obtenidas de https://huggingface.co/JorgeSarry/
|
73 |
+
El número de parámetros del modelo es de 244 millones de parámetros, lo que da como resultado un modelo de 0,9 GB, el 42 % del original.
|
74 |
+
|
75 |
+
Puedes usar este modelo utilizando el tag "instrut5:"
|
76 |
+
|
77 |
+
La gran ventaja es que produce buenos resultados, muchas veces en menos de 1 segundo en CPU.
|
78 |
+
|
79 |
+
=====
|
80 |
+
|
81 |
+
This is a smaller version of the google/mt5-base model with only Spanish and some English embeddings obtained from https://huggingface.co/JorgeSarry/
|
82 |
+
The number of model parameters is 244M parameters, resulting on a model of 0.9GB - 42% of the original one.
|
83 |
+
|
84 |
+
You can use this model starging with the tag "instrut5:"
|
85 |
+
|
86 |
+
The best advantage is that this model produces good results, some times in less than 1 second on CPU
|