KLUE RoBERTa Large KorQuAD v1 QA - Fine-tuned

이 모델은 CurtisJeon/klue-roberta-large-korquad_v1_qa를 기반으로 하여 추가 데이터로 fine-tuning한 한국어 질의응답(QA) 모델입니다.

모델 정보

  • 기본 모델: KLUE RoBERTa Large
  • 태스크: 질의응답 (Question Answering)
  • 언어: 한국어
  • 훈련 데이터: KorQuAD v1 + [자체 데이터]

모델 구조

  • RobertaForQuestionAnswering 아키텍처 사용 + CNN 레이어(without a dropout)
  • 24개의 hidden layers
  • 1024 hidden size
  • 16 attention heads
  • 총 파라미터: 약 355M

사용 방법

이 모델은 Hugging Face Transformers 라이브러리를 사용하여 쉽게 로드하고 사용할 수 있습니다:

from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = "HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Downloads last month
40
Inference Examples
Unable to determine this model's library. Check the docs .

Model tree for HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned

Finetuned
(1)
this model

Dataset used to train HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned