--- license: apache-2.0 language: es datasets: - bertin-project/alpaca-spanish pipeline_tag: text2text-generation tags: - salpaca - mT5 - spanish widget: - text: "instrut5: Explica la siguiente frase: YOLO. " example_title: "Explicar frase" - text: "instrut5: Generar una lista de preguntas interesantes sobre el tema del cambio climático." example_title: "Generar preguntas" - text: "instrut5: Escribe un correo electrónico dando la bienvenida a un nuevo empleado.Juan" example_title: "Escribir email" --- Esta es una versión más pequeña del modelo google/mt5-base con embeddings solo en español y algunas en inglés obtenidas de https://huggingface.co/JorgeSarry/ El número de parámetros del modelo es de 244 millones de parámetros, lo que da como resultado un modelo de 0,9 GB, el 42 % del original. Puedes usar este modelo utilizando el tag "instrut5:" ===== This is a smaller version of the google/mt5-base model with only Spanish and some English embeddings obtained from https://huggingface.co/JorgeSarry/ The number of model parameters is 244M parameters, resulting on a model of 0.9GB - 42% of the original one. You can use this model starging with the tag "instrut5:" --- # Spanish Alpaca mT5 This repository contains a mT5 fine-tuned model on the [Bertin Project - Alpaca Spanish](https://huggingface.co/datasets/bertin-project/alpaca-spanish) cleaned version dataset. # Usage ## Using the model The model was trained on the following kind of code that shows the prompt as 'input_text' and the output: ```python from transformers import AutoTokenizer, AutoModelForSeq2SeqLM model = 'jalbarracin/spanish-alpaca-mT5' model_tokenizer = 'jalbarracin/spanish-alpaca-mT5' tokenizer = AutoTokenizer.from_pretrained(model_tokenizer) model = AutoModelForSeq2SeqLM.from_pretrained(model).to('cpu') #puedes cambiar a 'cuda' si tienes GPU input_text ="""instrut5: QuanticoTrends (https://www.quanticotrends.com/) se dedica al monitoreo de redes sociales para empresas. Escribe un anuncio para anunciar los servicios de QuanticoTrends en facebook""" inputs = tokenizer(input_text, return_tensors="pt").to('cpu') #puedes cambiar a 'cuda' si tienes GPU outputs = model.generate(inputs["input_ids"], do_sample = True, max_length = 500, num_return_sequences=3, #recomiendo hasta 6 para que no demore mucho top_k=50, top_p=0.90, ) detok_outputs = [tokenizer.decode(x, skip_special_tokens=True) for x in outputs] for output in detok_outputs: print(output) print("/n") # imprime un salto de linea para separar cada uno de los outputs (en el caso que num_return_sequences sea mayor que 1) ``` El output de este ejemplo: ```python ¡¿Echa un vistazo a nosotros y descubre los servicios de QuanticoTrends en Facebook! Observa el rendimiento de tus sitios web, recopila información de empresas, construye relaciones con otros usuarios e incluso realiza un seguimiento de tus campañas. ¡Disfruta de las herramientas que necesitas para hacer la transición a la realidad virtual! #QuanticoTrends #Marketing #Sostenibilidad ¡Bienvenido a QuanticoTrends! Estamos dedicados al monitoreo de redes sociales para empresas y nuestro servicio al cliente. Nuestro monitoreo de redes sociales está diseñado para brindar a los usuarios la mejor experiencia, consejos y consejos para tomar decisiones inteligentes y productivas para nuestras empresas. ¡Únete a nosotros hoy para estar al día con las tendencias de QuanticoTrends! ¡Aprovecha nuestra especialidad de monitoreo de redes sociales para empresas! Regístrate ahora y crea una nueva selección de servicios y recursos que se adaptan a tus intereses y necesidades. # QuanticoTrends #empresas # MonitoreoDe redes sociales #MantenteSeguro #Visibilidad ```