Cho em hỏi vì sao task này đánh giá theo cloze prompt?
#2
by
rin2401
- opened
out_doc = {
"id": doc["id"],
"query": "Question: " + doc["question"] + "\nAnswer:",
"choices": doc["choices"]["text"],
"gold": ["A", "B", "C", "D"].index(doc["answerKey"].strip()),
}
Xin trả lời thắc mắc của bạn, task này vẫn đánh giá giống các bộ Multiple choices khác như Hellswag, MMLU, ...
Không biết mình đã trả lời đúng ý bạn chưa.
Nhưng task MMLU thì có để thêm các lựa chọn vào prompt
Vì mình thấy nó cũng là trắc nghiệm như MMLU nhưng MMLU thì dùng multiple choice prompt
https://github.com/hieunguyen1053/lm-evaluation-harness/blob/master/lm_eval/tasks/hendrycks_test.py
def _process_doc(self, doc):
def format_example(doc, keys):
"""
<prompt>
A. <choice1>
B. <choice2>
C. <choice3>
D. <choice4>
Answer:
"""
question = doc["question"].strip()
choices = "".join(
[f"{key}. {choice}\n" for key, choice in zip(keys, doc["choices"])]
)
prompt = f"{question}\n{choices}Answer:"
return prompt
keys = ["A", "B", "C", "D"]
return {
"query": format_example(doc, keys),
"choices": keys,
"gold": doc["answer"],
}
lí do BTC không ưu tiên format prompt này vì 4 options được liệt kê trong prompt nếu shuffle lên với mỗi order khác nhau thì sẽ đưa ra một kết quả khác nhau. Vì vậy các private test về multiple choices, BTC không sử dụng prompt format này mà sử dụng prompt để tính xác suất answer tương tự cách tính trong paper của GPT-3.