from transformers import AutoTokenizer, AutoModelForCausalLM | |
# Загрузка модели и токенизатора | |
model_name = "gpt2" # Можно заменить на другую модель | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
model = AutoModelForCausalLM.from_pretrained(model_name) | |
print("Модель и токенизатор успешно загружены!") |