Colab에서 실행 시 모델 준비단계에서 오류가 발생합니다

#12
by kwonssi - opened

import os
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = 'MLP-KTLim/llama-3-Korean-Bllossom-8B'

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model.eval()

/usr/local/lib/python3.10/dist-packages/huggingface_hub/file_download.py:1132: FutureWarning: resume_download is deprecated and will be removed in version 1.0.0. Downloads always resume when possible. If you want to force a new download, use force_download=True.
warnings.warn(
Special tokens have been added in the vocabulary, make sure the associated word embeddings are fine-tuned or trained.

ValueError Traceback (most recent call last)
in <cell line: 8>()
6
7 tokenizer = AutoTokenizer.from_pretrained(model_id)
----> 8 model = AutoModelForCausalLM.from_pretrained(
9 model_id,
10 torch_dtype=torch.bfloat16,

4 frames
/usr/local/lib/python3.10/dist-packages/transformers/models/llama/configuration_llama.py in _rope_scaling_validation(self)
179
180 if not isinstance(self.rope_scaling, dict) or len(self.rope_scaling) != 2:
--> 181 raise ValueError(
182 "rope_scaling must be a dictionary with two fields, type and factor, " f"got {self.rope_scaling}"
183 )

ValueError: rope_scaling must be a dictionary with two fields, type and factor, got {'factor': 8.0, 'high_freq_factor': 4.0, 'low_freq_factor': 1.0, 'original_max_position_embeddings': 8192, 'rope_type': 'llama3'}

MLP-LAB org

Llama3.1 버전을 기반으로한 Bllossom-8B로 모델을 업데이트 했습니다.

transformers 패키지를 최신버전으로 업데이트한다음에 사용해보시길 바랍니다.

pip install -U transformers

'MLP-KTLim/llama-3-Korean-Bllossom-8B'을 불러오면 자동적으로 Llama3.1 버전으로 불러오고 있는게 맞는걸까요?
혹시 기존 Llama3 모델로 파인튜닝된 모델을 쓸 수 있는 다른 방법은 없을까요?

MLP-LAB org

8월 12일 13시 기준으로 Llama3 8B 기반의 블라썸 8B로 다시 업데이트 했습니다.

Llama3.1 8B 기반의 블라썸 8B는 추후에 다시 공개하겠습니다.

PerRing changed discussion status to closed

Sign up or log in to comment