Edit model card

Model Card for Model ID

AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가
meta-llama/Llama-3.2-3B-Instruct 베이스모델을 사용해서 H100-80G 8개를 통해 CPT(Continued Pre Trainig) 한 한글 언어 모델
5천만건의 한글 뉴스 포함 다양한 한글 코퍼스를 기준으로 전체 파라미터중 약 35%를 재 튜닝한 한글 기본 모델로 SFT, DPO 를 통해 용도에 맞게 튜닝하면 됩니다.
-토크나이저는 확장 없이 베이스 모델을 그대로 사용
-128k-Context Window
-한글 Function Call 및 Tool Calling 지원
-Deepspeed Stage=3, rslora 및 BAdam Layer Mode 사용


Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics
Korean language model CPT (Continued Pre Trainig) with 8 H100-80Gs using meta-llama/Llama-3.2-3B-Instruct base model
A basic Korean language model with about 35% of the total parameters re-tuned based on various Korean corpus including 50 million Korean news, which need to be customized through SFT and DPO.

-Tokenizer uses the base model without word expansion
-128k-Context Window
-Support for Korean Functioncall and Tool Calling
-Deepspeed Stage=3, use rslora and BAdam Layer Mode


www.linkbricks.com, www.linkbricks.vc

Downloads last month
827
Safetensors
Model size
3.61B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Saxo/Linkbricks-Llama3.2-Korean-cpt-3b

Finetuned
(94)
this model
Merges
1 model

Datasets used to train Saxo/Linkbricks-Llama3.2-Korean-cpt-3b