Nom de votre modèle
Introduction
Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.
Configuration requise
Indiquez les versions des bibliothèques nécessaires, comme transformers
, et toute autre dépendance.
Démarrage rapide
Fournissez un exemple de code montrant comment charger le modèle et générer du texte :
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Aktraiser/model_test1"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "Votre prompt ici."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
generated_ids = model.generate(
**inputs,
max_new_tokens=512
)
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for Aktraiser/model_test1
Base model
unsloth/Meta-Llama-3.1-8B