Upload README_es.md
Browse files- README_es.md +298 -0
README_es.md
ADDED
@@ -0,0 +1,298 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
library_name: peft
|
4 |
+
tags:
|
5 |
+
- generated_from_trainer
|
6 |
+
base_model: BioMistral/BioMistral-7B
|
7 |
+
model-index:
|
8 |
+
- name: spanish_medica_llm
|
9 |
+
results: []
|
10 |
+
datasets:
|
11 |
+
- somosnlp/SMC
|
12 |
+
language:
|
13 |
+
- es
|
14 |
+
pipeline_tag: text-generation
|
15 |
+
---
|
16 |
+
|
17 |
+
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
|
18 |
+
should probably proofread and complete it, then remove this comment. -->
|
19 |
+
<!-- Email de contacto para´posibles preguntas sobre el modelo. -->
|
20 |
+
|
21 |
+
<!--- ############################################################################################################################### -----!>
|
22 |
+
<!--
|
23 |
+
Esta plantilla de Model Card es una adaptación de la de Hugging Face: https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/templates/modelcard_template.md
|
24 |
+
|
25 |
+
¿Cómo utilizar esta plantilla? Copia el contenido en el README.md del repo de tu modelo en el Hub de Hugging Face y rellena cada sección.
|
26 |
+
|
27 |
+
Para más información sobre cómo rellenar cada sección ver las docs: https://huggingface.co/docs/hub/model-cards
|
28 |
+
-->
|
29 |
+
|
30 |
+
# Model Card for SpanishMedicaLLM
|
31 |
+
|
32 |
+
<!--
|
33 |
+
|
34 |
+
Nombre del modelo:
|
35 |
+
|
36 |
+
Suele haber un nombre corto ("pretty name") para las URLs, tablas y demás y uno largo más descriptivo. Para crear el pretty name podéis utilizar acrónimos.
|
37 |
+
|
38 |
+
Idioma:
|
39 |
+
|
40 |
+
La Model Card puede estar en español o en inglés. Recomendamos que sea en inglés para que la comunidad internacional pueda utilizar vuestro dataset. Teniendo en cuenta que somos una comunidad hispanohablante y no queremos que el idioma sea una barrera, la opción más inclusiva sería escribirla en un idioma y traducirla (automáticamente?) al otro. En el repo entonces habría un README.md (Model Card en inglés) que enlazaría a un README_ES.md (Model Card en español), o viceversa, README.md y README_EN.md. Si necesitáis apoyo con la traducción os podemos ayudar.
|
41 |
+
|
42 |
+
Qué incluir en esta sección:
|
43 |
+
|
44 |
+
Esta sección es como el abstract. Escribir un resumen del modelo y motivación del proyecto (inc. los ODS relacionados). Si el proyecto tiene un logo, incluidlo aquí.
|
45 |
+
|
46 |
+
Si queréis incluir una versión de la Model Card en español, enlazadla aquí al principio (e.g. "A Spanish version of this Model Card can be found under [`README_es.md`](URL)"). De manera análoga para el inglés.
|
47 |
+
|
48 |
+
-->
|
49 |
+
|
50 |
+
Más de 600 millones de personas hablantes del idioma español necesitan recursos, como los LLMs, para la obtención de información médica de forma libre y segura,
|
51 |
+
cumpliendo con los objetivo del milenio: Salud y Bienestar, Educación y Calidad, Fin de la Pobreza propuestos por la ONU.
|
52 |
+
Existen pocos LLM para el dominio médico en idioma español.
|
53 |
+
|
54 |
+
El objetivo de este proyecto es crear un gran modelo de lenguaje (LLM; siglas en inglés) para el contexto médico en español permitiendo crear soluciones
|
55 |
+
y servicios de información de salud en LATAM. El modelo contará con información de medicinas convencionales, naturales y tradicionales.
|
56 |
+
Un resultado del proyecto es un conjunto de datos público del dominio médico que agrupa recursos de otras fuentes que permite crear o ajustar LLM.
|
57 |
+
Los resultados del desempeño del LLM se comparan con otros modelos del state-of-the-art como BioMistral, Meditron, MedPalm.
|
58 |
+
|
59 |
+
## Model Details
|
60 |
+
|
61 |
+
### Model Description
|
62 |
+
|
63 |
+
<!-- Resumen del modelo. -->
|
64 |
+
|
65 |
+
- **Developed by:** [Dionis López Ramos](https://www.linkedin.com/in/dionis-lopez-ramos/), [Alvaro Garcia Barragan](https://huggingface.co/Alvaro8gb), [Dylan Montoya](https://huggingface.co/dylanmontoya22), [Daniel Bermúdez](https://huggingface.co/Danielbrdz) <!-- Nombre de los miembros del equipo -->
|
66 |
+
<!-- Nombre de los miembros del equipo -->
|
67 |
+
- **Funded by:** SomosNLP, HuggingFace <!-- Si contasteis con apoyo de otra entidad (e.g. vuestra universidad), añadidla aquí -->
|
68 |
+
- **Model type:** Language model, instruction tuned
|
69 |
+
- **Language(s):** Spanish (`es-ES`, `es-CL`) <!-- Enumerar las lenguas en las que se ha entrenado el modelo, especificando el país de origen. Utilizar códigos ISO. Por ejemplo: Spanish (`es-CL`, `es-ES`, `es-MX`), Catalan (`ca`), Quechua (`qu`). -->
|
70 |
+
- **License:** apache-2.0 <!-- Elegid una licencia lo más permisiva posible teniendo en cuenta la licencia del model pre-entrenado y los datasets utilizados -->
|
71 |
+
- **Fine-tuned from model:** [BioMistral/BioMistral-7B](https://huggingface.co/BioMistral/BioMistral-7B) <!-- Enlace al modelo pre-entrenado que habéis utilizado como base -->
|
72 |
+
- **Dataset used:** [somosnlp/SMC/](https://huggingface.co/datasets/somosnlp/SMC/) <!-- Enlace al dataset utilizado para el ajuste -->
|
73 |
+
|
74 |
+
### Model Sources
|
75 |
+
|
76 |
+
- **Repository:** [spaces/somosnlp/SpanishMedicaLLM/](https://huggingface.co/spaces/somosnlp/SpanishMedicaLLM/tree/main) <!-- Enlace al `main` del repo donde tengáis los scripts, i.e.: o del mismo repo del modelo en HuggingFace o a GitHub. -->
|
77 |
+
- **Paper:** "Comming soon!" <!-- Si vais a presentarlo a NAACL poned "WIP", "Comming soon!" o similar. Si no tenéis intención de presentarlo a ninguna conferencia ni escribir un preprint, eliminar. -->
|
78 |
+
- **Demo:** [spaces/somosnlp/SpanishMedicaLLM](https://huggingface.co/spaces/somosnlp/SpanishMedicaLLM) <!-- Enlace a la demo -->
|
79 |
+
- **Video presentation:** [SpanishMedicaLLM | Proyecto Hackathon #SomosNLP ](https://www.youtube.com/watch?v=tVe_MC7Da6k) <!-- Enlace a vuestro vídeo de presentación en YouTube (están todos subidos aquí: https://www.youtube.com/playlist?list=PLTA-KAy8nxaASMwEUWkkTfMaDxWBxn-8J) -->
|
80 |
+
|
81 |
+
|
82 |
+
## Uses
|
83 |
+
|
84 |
+
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
|
85 |
+
|
86 |
+
### Direct Use
|
87 |
+
|
88 |
+
<!-- This section is for the model use without fine-tuning or plugging into a larger ecosystem/app. -->
|
89 |
+
|
90 |
+
[More Information Needed]
|
91 |
+
|
92 |
+
### Out-of-Scope Use
|
93 |
+
|
94 |
+
<!-- This section addresses misuse, malicious use, and uses that the model will not work well for. -->
|
95 |
+
|
96 |
+
Los creadores del LLM no se hacen responsable de resultados nocivos que puedan generar. Se sugiere un proceso de evaluación riguroso con especialistas
|
97 |
+
de los resultados generados.
|
98 |
+
|
99 |
+
## Bias, Risks, and Limitations
|
100 |
+
|
101 |
+
<!-- This section is meant to convey both technical and sociotechnical limitations. -->
|
102 |
+
|
103 |
+
[More Information Needed]
|
104 |
+
|
105 |
+
### Recommendations
|
106 |
+
|
107 |
+
<!-- This section is meant to convey recommendations with respect to the bias, risk, and technical limitations. -->
|
108 |
+
|
109 |
+
<!-- Example: Users (both direct and downstream) should be made aware of the risks, biases and limitations of the model. More information needed for further recommendations. -->
|
110 |
+
|
111 |
+
## How to Get Started with the Model
|
112 |
+
|
113 |
+
Use the code below to get started with the model.
|
114 |
+
|
115 |
+
```
|
116 |
+
HUB_MODEL_ID = '/somosnlp/spanish_medica_llm'
|
117 |
+
config = PeftConfig.from_pretrained(HUB_MODEL_ID)
|
118 |
+
model = AutoModelForCausalLM.from_pretrained(HUB_MODEL_ID, return_dict=True, load_in_8bit=True, device_map={"":0})
|
119 |
+
|
120 |
+
```
|
121 |
+
|
122 |
+
## Training Details
|
123 |
+
|
124 |
+
### Training Data
|
125 |
+
|
126 |
+
<!-- This should link to a Dataset Card, perhaps with a short stub of information on what the training data is all about as well as documentation related to data pre-processing or additional filtering. -->
|
127 |
+
|
128 |
+
Dataset used was [somosnlp/SMC/](https://huggingface.co/datasets/somosnlp/SMC/)
|
129 |
+
|
130 |
+
### Training Procedure
|
131 |
+
|
132 |
+
<!-- This relates heavily to the Technical Specifications. Content here should link to that section when it is relevant to the training procedure. -->
|
133 |
+
|
134 |
+
<!-- Detallar la técnica de entrenamiento utilizada y enlazar los scripts/notebooks. -->
|
135 |
+
|
136 |
+
|
137 |
+
#### Training Hyperparameters
|
138 |
+
|
139 |
+
<!-- Enumerar los valores de los hiperparámetros de entrenamiento. -->
|
140 |
+
|
141 |
+
**Training regime:**
|
142 |
+
- learning_rate: 2.5e-05
|
143 |
+
- train_batch_size: 16
|
144 |
+
- eval_batch_size: 1
|
145 |
+
- seed: 42
|
146 |
+
- gradient_accumulation_steps: 4
|
147 |
+
- total_train_batch_size: 64
|
148 |
+
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
|
149 |
+
- lr_scheduler_type: linear
|
150 |
+
- lr_scheduler_warmup_steps: 5
|
151 |
+
- training_steps: 2
|
152 |
+
- mixed_precision_training: Native AMP
|
153 |
+
- <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->
|
154 |
+
|
155 |
+
## Evaluation
|
156 |
+
|
157 |
+
<!-- This section describes the evaluation protocols and provides the results. -->
|
158 |
+
|
159 |
+
### Testing Data, Factors & Metrics
|
160 |
+
|
161 |
+
#### Testing Data
|
162 |
+
|
163 |
+
<!-- This should link to a Dataset Card. -->
|
164 |
+
|
165 |
+
El corpus usado fue un 20% de [somosnlp/SMC/](https://huggingface.co/datasets/somosnlp/SMC/)
|
166 |
+
|
167 |
+
#### Factors
|
168 |
+
|
169 |
+
<!-- These are the things the evaluation is disaggregating by, e.g., subpopulations or domains. -->
|
170 |
+
|
171 |
+
[More Information Needed]
|
172 |
+
|
173 |
+
#### Metrics
|
174 |
+
|
175 |
+
<!-- These are the evaluation metrics being used, ideally with a description of why. -->
|
176 |
+
|
177 |
+
[More Information Needed]
|
178 |
+
|
179 |
+
### Results
|
180 |
+
|
181 |
+
<!-- Enlazar aquí los scripts/notebooks de evaluación y especificar los resultados. -->
|
182 |
+
|
183 |
+
[More Information Needed]
|
184 |
+
|
185 |
+
## Environmental Impact
|
186 |
+
|
187 |
+
<!-- Total emissions (in grams of CO2eq) and additional considerations, such as electricity usage, go here. Edit the suggested text below accordingly. -->
|
188 |
+
|
189 |
+
<!-- Rellenar la información de la lista y calcular las emisiones con la página mencionada. -->
|
190 |
+
|
191 |
+
Carbon emissions can be estimated using the [Machine Learning Impact calculator](https://mlco2.github.io/impact#compute) presented in [Lacoste et al. (2019)](https://arxiv.org/abs/1910.09700).
|
192 |
+
|
193 |
+
- **Hardware Type:** GPU
|
194 |
+
- **Hours used:** 4 Horas
|
195 |
+
- **Cloud Provider:** [Hugginface](https://huggingface.co)
|
196 |
+
- **Compute Region:** [More Information Needed]
|
197 |
+
- **Carbon Emitted:** [More Information Needed]
|
198 |
+
|
199 |
+
|
200 |
+
### Model Architecture and Objective
|
201 |
+
|
202 |
+
Se utilizó la arquitectura de [BioMistral/BioMistral-7B](https://huggingface.co/BioMistral/BioMistral-7B) porque es un modelo fundacional
|
203 |
+
entrenado con un conjunto de datos de dominio médico.
|
204 |
+
|
205 |
+
### Compute Infrastructure
|
206 |
+
|
207 |
+
[More Information Needed]
|
208 |
+
|
209 |
+
#### Hardware
|
210 |
+
|
211 |
+
<!-- Indicar el hardware utilizado, podéis agradecer aquí a quien lo patrocinó. -->
|
212 |
+
|
213 |
+
Nvidia T4 Small 4 vCPU 15 GB RAM 16 GB VRAM
|
214 |
+
|
215 |
+
#### Software
|
216 |
+
|
217 |
+
<!-- Enumerar las librerías utilizadas (e.g. transformers, distilabel). -->
|
218 |
+
|
219 |
+
- transformers==4.38.0
|
220 |
+
- torch>=2.1.1+cu113
|
221 |
+
- trl @ git+https://github.com/huggingface/trl
|
222 |
+
- peft
|
223 |
+
- wandb
|
224 |
+
- accelerate
|
225 |
+
- datasets
|
226 |
+
|
227 |
+
[More Information Needed]
|
228 |
+
|
229 |
+
## License
|
230 |
+
|
231 |
+
<!-- Indicar bajo qué licencia se libera el modelo explicando, si no es apache 2.0, a qué se debe la licencia más restrictiva (i.e. herencia de las licencias del modelo pre-entrenado o de los datos utilizados). -->
|
232 |
+
|
233 |
+
Apache License 2.0
|
234 |
+
## Citation
|
235 |
+
|
236 |
+
**BibTeX:**
|
237 |
+
|
238 |
+
```
|
239 |
+
@software{lopez2024spanishmedicallm,
|
240 |
+
author = {Lopez Dionis, Garcia Alvaro, Montoya Dylan, Bermúdez Daniel},
|
241 |
+
title = {SpanishMedicaLLM},
|
242 |
+
month = February,
|
243 |
+
year = 2024,
|
244 |
+
url = {https://huggingface.co/datasets/HuggingFaceTB/cosmopedia}
|
245 |
+
}
|
246 |
+
```
|
247 |
+
<!--
|
248 |
+
|
249 |
+
Aquí tenéis un ejemplo de cita de un dataset que podéis adaptar:
|
250 |
+
|
251 |
+
```
|
252 |
+
@software{benallal2024cosmopedia,
|
253 |
+
author = {Ben Allal, Loubna and Lozhkov, Anton and Penedo, Guilherme and Wolf, Thomas and von Werra, Leandro},
|
254 |
+
title = {Cosmopedia},
|
255 |
+
month = February,
|
256 |
+
year = 2024,
|
257 |
+
url = {https://huggingface.co/datasets/HuggingFaceTB/cosmopedia}
|
258 |
+
}
|
259 |
+
```
|
260 |
+
|
261 |
+
- benallal2024cosmopedia -> nombre + año + nombre del modelo
|
262 |
+
- author: lista de miembros del equipo
|
263 |
+
- title: nombre del modelo
|
264 |
+
- year: año
|
265 |
+
- url: enlace al modelo
|
266 |
+
|
267 |
+
-->
|
268 |
+
|
269 |
+
|
270 |
+
## More Information
|
271 |
+
|
272 |
+
<!-- Indicar aquí que el marco en el que se desarrolló el proyecto, en esta sección podéis incluir agradecimientos y más información sobre los miembros del equipo. Podéis adaptar el ejemplo a vuestro gusto. -->
|
273 |
+
|
274 |
+
Este proyecto fue desarrollado durante el [Hackathon #Somos600M](https://somosnlp.org/hackathon) organizado por SomosNLP.
|
275 |
+
El modelo fue entrenado usando GPU patrocinado por HuggingFace.
|
276 |
+
|
277 |
+
<!--
|
278 |
+
This project was developed during the [Hackathon #Somos600M](https://somosnlp.org/hackathon) organized by SomosNLP.
|
279 |
+
The model was trained using GPUs sponsored by HuggingFace.
|
280 |
+
-->
|
281 |
+
|
282 |
+
**Team:**
|
283 |
+
|
284 |
+
<!--
|
285 |
+
- [Name 1](Link to Hugging Face profile)
|
286 |
+
- [Name 2](Link to Hugging Face profile)
|
287 |
+
-->
|
288 |
+
|
289 |
+
- [Dionis López Ramos](https://huggingface.co/inoid)
|
290 |
+
- [Alvaro Garcia Barragan](https://huggingface.co/Alvaro8gb)
|
291 |
+
- [Dylan Montoya](https://huggingface.co/dylanmontoya22)
|
292 |
+
- [Daniel Bermúdez](https://huggingface.co/Danielbrdz)
|
293 |
+
## Contact
|
294 |
+
|
295 |
+
<!-- Email de contacto para´posibles preguntas sobre el modelo. -->
|
296 |
+
<!-- For any doubt or suggestion contact to: PhD Dionis López (inoid2007@gmail.com) -->
|
297 |
+
|
298 |
+
Para cualquier duda contactar a: Dr.C Dionis López (inoid2007@gmail.com)
|