Nom de votre modèle

Introduction

Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.

Configuration requise

Indiquez les versions des bibliothèques nécessaires, comme transformers, et toute autre dépendance.

Démarrage rapide

Fournissez un exemple de code montrant comment charger le modèle et générer du texte :

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Aktraiser/model_test1"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "Votre prompt ici."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **inputs,
    max_new_tokens=512
)

response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Aktraiser/model_test1

Finetuned
(109)
this model