Spaces:
Runtime error
Runtime error
<!--Copyright 2022 The HuggingFace Team. All rights reserved. | |
Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with | |
the License. You may obtain a copy of the License at | |
http://www.apache.org/licenses/LICENSE-2.0 | |
Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on | |
an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the | |
specific language governing permissions and limitations under the License. | |
--> | |
# ๋๋ฌ๋ณด๊ธฐ[[quick-tour]] | |
[[open-in-colab]] | |
๐ค Transformer๋ฅผ ์์ํด๋ด์! ๋๋ฌ๋ณด๊ธฐ๋ ๊ฐ๋ฐ์์ ์ผ๋ฐ ์ฌ์ฉ์ ๋ชจ๋๋ฅผ ์ํด ์ฐ์ฌ์ก์ต๋๋ค. [`pipeline`]์ผ๋ก ์ถ๋ก ํ๋ ๋ฐฉ๋ฒ, [AutoClass](./model_doc/auto)๋ก ์ฌ์ ํ์ต๋ ๋ชจ๋ธ๊ณผ ์ ์ฒ๋ฆฌ๊ธฐ๋ฅผ ์ ์ฌํ๋ ๋ฐฉ๋ฒ๊ณผ PyTorch ๋๋ TensorFlow๋ก ์ ์ํ๊ฒ ๋ชจ๋ธ์ ํ๋ จ์ํค๋ ๋ฐฉ๋ฒ์ ๋ณด์ฌ์ค๋๋ค. ๊ธฐ๋ณธ์ ๋ฐฐ์ฐ๊ณ ์ถ๋ค๋ฉด ํํ ๋ฆฌ์ผ์ด๋ [course](https://huggingface.co/course/chapter1/1)์์ ์ฌ๊ธฐ ์๊ฐ๋ ๊ฐ๋ ์ ๋ํ ์์ธํ ์ค๋ช ์ ํ์ธํ์๊ธธ ๊ถ์ฅํฉ๋๋ค. | |
์์ํ๊ธฐ ์ ์ ํ์ํ ๋ผ์ด๋ธ๋ฌ๋ฆฌ๊ฐ ๋ชจ๋ ์ค์น๋์ด ์๋์ง ํ์ธํ๊ณ , | |
```bash | |
!pip install transformers datasets | |
``` | |
์ข์ํ๋ ๋จธ์ ๋ฌ๋ ํ๋ ์์ํฌ๋ ์ค์นํด์ผ ํฉ๋๋ค. | |
<frameworkcontent> | |
<pt> | |
```bash | |
pip install torch | |
``` | |
</pt> | |
<tf> | |
```bash | |
pip install tensorflow | |
``` | |
</tf> | |
</frameworkcontent> | |
## Pipeline (ํ์ดํ๋ผ์ธ) | |
<Youtube id="tiZFewofSLM"/> | |
[`pipeline`]์ ์ฌ์ ํ์ต๋ ๋ชจ๋ธ์ ์ฌ์ฉํด ์ถ๋ก ํ ๋ ์ ์ผ ์ฌ์ด ๋ฐฉ๋ฒ์ ๋๋ค. ์ฌ๋ฌ ๋ชจ๋ฌ๋ฆฌํฐ์ ์๋ง์ ํ์คํฌ์ [`pipeline`]์ ์ฆ์ ์ฌ์ฉํ ์ ์์ต๋๋ค. ์ง์ํ๋ ํ์คํฌ์ ์์๋ ์๋ ํ๋ฅผ ์ฐธ๊ณ ํ์ธ์. | |
| **ํ์คํฌ** | **์ค๋ช ** | **๋ชจ๋ฌ๋ฆฌํฐ** | **ํ์ดํ๋ผ์ธ ID** | | |
|----------------|---------------------------------------------------------------------|------------------|-----------------------------------------------| | |
| ํ ์คํธ ๋ถ๋ฅ | ํ ์คํธ์ ์๋ง์ ๋ผ๋ฒจ ๋ถ์ด๊ธฐ | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="sentiment-analysis") | | |
| ํ ์คํธ ์์ฑ | ์ฃผ์ด์ง ๋ฌธ์์ด ์ ๋ ฅ๊ณผ ์ด์ด์ง๋ ํ ์คํธ ์์ฑํ๊ธฐ | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="text-generation") | | |
| ๊ฐ์ฒด๋ช ์ธ์ | ๋ฌธ์์ด์ ๊ฐ ํ ํฐ๋ง๋ค ์๋ง์ ๋ผ๋ฒจ ๋ถ์ด๊ธฐ (์ธ๋ฌผ, ์กฐ์ง, ์ฅ์ ๋ฑ๋ฑ) | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="ner") | | |
| ์ง์์๋ต | ์ฃผ์ด์ง ๋ฌธ๋งฅ๊ณผ ์ง๋ฌธ์ ๋ฐ๋ผ ์ฌ๋ฐ๋ฅธ ๋๋ตํ๊ธฐ | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="question-answering") | | |
| ๋น์นธ ์ฑ์ฐ๊ธฐ | ๋ฌธ์์ด์ ๋น์นธ์ ์๋ง์ ํ ํฐ ๋ง์ถ๊ธฐ | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="fill-mask") | | |
| ์์ฝ | ํ ์คํธ๋ ๋ฌธ์๋ฅผ ์์ฝํ๊ธฐ | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="summarization") | | |
| ๋ฒ์ญ | ํ ์คํธ๋ฅผ ํ ์ธ์ด์์ ๋ค๋ฅธ ์ธ์ด๋ก ๋ฒ์ญํ๊ธฐ | ์์ฐ์ด ์ฒ๋ฆฌ(NLP) | pipeline(task="translation") | | |
| ์ด๋ฏธ์ง ๋ถ๋ฅ | ์ด๋ฏธ์ง์ ์๋ง์ ๋ผ๋ฒจ ๋ถ์ด๊ธฐ | ์ปดํจํฐ ๋น์ (CV) | pipeline(task="image-classification") | | |
| ์ด๋ฏธ์ง ๋ถํ | ์ด๋ฏธ์ง์ ํฝ์ ๋ง๋ค ๋ผ๋ฒจ ๋ถ์ด๊ธฐ(์๋งจํฑ, ํ๋ํฑ ๋ฐ ์ธ์คํด์ค ๋ถํ ํฌํจ) | ์ปดํจํฐ ๋น์ (CV) | pipeline(task="image-segmentation") | | |
| ๊ฐ์ฒด ํ์ง | ์ด๋ฏธ์ง ์ ๊ฐ์ฒด์ ๊ฒฝ๊ณ ์์๋ฅผ ๊ทธ๋ฆฌ๊ณ ํด๋์ค๋ฅผ ์์ธกํ๊ธฐ | ์ปดํจํฐ ๋น์ (CV) | pipeline(task="object-detection") | | |
| ์ค๋์ค ๋ถ๋ฅ | ์ค๋์ค ํ์ผ์ ์๋ง์ ๋ผ๋ฒจ ๋ถ์ด๊ธฐ | ์ค๋์ค | pipeline(task="audio-classification") | | |
| ์๋ ์์ฑ ์ธ์ | ์ค๋์ค ํ์ผ ์ ์์ฑ์ ํ ์คํธ๋ก ๋ฐ๊พธ๊ธฐ | ์ค๋์ค | pipeline(task="automatic-speech-recognition") | | |
| ์๊ฐ ์ง์์๋ต | ์ฃผ์ด์ง ์ด๋ฏธ์ง์ ์ด๋ฏธ์ง์ ๋ํ ์ง๋ฌธ์ ๋ฐ๋ผ ์ฌ๋ฐ๋ฅด๊ฒ ๋๋ตํ๊ธฐ | ๋ฉํฐ๋ชจ๋ฌ | pipeline(task="vqa") | | |
๋จผ์ [`pipeline`]์ ์ธ์คํด์ค๋ฅผ ๋ง๋ค์ด ์ ์ฉํ ํ์คํฌ๋ฅผ ๊ณ ๋ฅด์ธ์. ์ ํ์คํฌ๋ค์ ๋ชจ๋ [`pipeline`]์ ์ฌ์ฉํ ์ ์๊ณ , ์ง์ํ๋ ํ์คํฌ์ ์ ์ฒด ๋ชฉ๋ก์ ๋ณด๋ ค๋ฉด [pipeline API ๋ ํผ๋ฐ์ค](./main_classes/pipelines)๋ฅผ ํ์ธํด์ฃผ์ธ์. ๊ฐ๋จํ ์์๋ก ๊ฐ์ ๋ถ์ ํ์คํฌ์ [`pipeline`]๋ฅผ ์ ์ฉํด ๋ณด๊ฒ ์ต๋๋ค. | |
```py | |
>>> from transformers import pipeline | |
>>> classifier = pipeline("sentiment-analysis") | |
``` | |
[`pipeline`]์ ๊ธฐ๋ณธ [์ฌ์ ํ์ต๋ ๋ชจ๋ธ(์์ด)](https://huggingface.co/distilbert-base-uncased-finetuned-sst-2-english)์ ๊ฐ์ ๋ถ์์ ํ๊ธฐ ์ํ tokenizer๋ฅผ ๋ค์ด๋ก๋ํ๊ณ ์บ์ํด๋์ต๋๋ค. ์ด์ ์ํ๋ ํ ์คํธ์ `classifier`๋ฅผ ์ฌ์ฉํ ์ ์์ต๋๋ค. | |
```py | |
>>> classifier("We are very happy to show you the ๐ค Transformers library.") | |
[{'label': 'POSITIVE', 'score': 0.9998}] | |
``` | |
์ ๋ ฅ์ด ์ฌ๋ฌ ๊ฐ๋ผ๋ฉด, ์ ๋ ฅ์ [`pipeline`]์ ๋ฆฌ์คํธ๋ก ์ ๋ฌํด์ ๋์ ๋๋ฆฌ๋ก ๋ ๋ฆฌ์คํธ๋ฅผ ๋ฐ์ ์ ์์ต๋๋ค. | |
```py | |
>>> results = classifier(["We are very happy to show you the ๐ค Transformers library.", "We hope you don't hate it."]) | |
>>> for result in results: | |
... print(f"label: {result['label']}, with score: {round(result['score'], 4)}") | |
label: POSITIVE, with score: 0.9998 | |
label: NEGATIVE, with score: 0.5309 | |
``` | |
[`pipeline`]์ ํน์ ํ์คํฌ์ฉ ๋ฐ์ดํฐ์ ๋ฅผ ์ ๋ถ ์ํํ ์๋ ์์ต๋๋ค. ์๋ ์์ฑ ์ธ์ ํ์คํฌ์ ์ ์ฉํด ๋ณด๊ฒ ์ต๋๋ค. | |
```py | |
>>> import torch | |
>>> from transformers import pipeline | |
>>> speech_recognizer = pipeline("automatic-speech-recognition", model="facebook/wav2vec2-base-960h") | |
``` | |
์ด์ ์ํํ ์ค๋์ค ๋ฐ์ดํฐ์ ๋ฅผ ์ ์ฌํ๊ฒ ์ต๋๋ค. (์์ธํ ๋ด์ฉ์ ๐ค Datasets [์์ํ๊ธฐ](https://huggingface.co/docs/datasets/quickstart#audio)๋ฅผ ์ฐธ๊ณ ํด์ฃผ์ธ์) [MInDS-14](https://huggingface.co/datasets/PolyAI/minds14) ๋ฐ์ดํฐ์ ๋ก ํด๋ณผ๊น์? | |
```py | |
>>> from datasets import load_dataset, Audio | |
>>> dataset = load_dataset("PolyAI/minds14", name="en-US", split="train") # doctest: +IGNORE_RESULT | |
``` | |
๋ฐ์ดํฐ์ ์ ์ํ๋ง ๋ ์ดํธ๊ฐ [`facebook/wav2vec2-base-960h`](https://huggingface.co/facebook/wav2vec2-base-960h)์ ํ๋ จ ๋น์ ์ํ๋ง ๋ ์ดํธ์ ์ผ์นํด์ผ๋ง ํฉ๋๋ค. | |
```py | |
>>> dataset = dataset.cast_column("audio", Audio(sampling_rate=speech_recognizer.feature_extractor.sampling_rate)) | |
``` | |
์ค๋์ค ํ์ผ์ `"audio"` ์ด์ ํธ์ถํ ๋ ์๋์ผ๋ก ์ ์ฌ๋๊ณ ๋ค์ ์ํ๋ง๋ฉ๋๋ค. | |
์ฒ์ 4๊ฐ ์ํ์์ ์์ฑ์ ์ถ์ถํ์ฌ ํ์ดํ๋ผ์ธ์ ๋ฆฌ์คํธ ํํ๋ก ์ ๋ฌํด๋ณด๊ฒ ์ต๋๋ค. | |
```py | |
>>> result = speech_recognizer(dataset[:4]["audio"]) | |
>>> print([d["text"] for d in result]) | |
['I WOULD LIKE TO SET UP A JOINT ACCOUNT WITH MY PARTNER HOW DO I PROCEED WITH DOING THAT', "FODING HOW I'D SET UP A JOIN TO HET WITH MY WIFE AND WHERE THE AP MIGHT BE", "I I'D LIKE TOY SET UP A JOINT ACCOUNT WITH MY PARTNER I'M NOT SEEING THE OPTION TO DO IT ON THE AP SO I CALLED IN TO GET SOME HELP CAN I JUST DO IT OVER THE PHONE WITH YOU AND GIVE YOU THE INFORMATION OR SHOULD I DO IT IN THE AP AND I'M MISSING SOMETHING UQUETTE HAD PREFERRED TO JUST DO IT OVER THE PHONE OF POSSIBLE THINGS", 'HOW DO I THURN A JOIN A COUNT'] | |
``` | |
(์์ฑ์ด๋ ๋น์ ์ฒ๋ผ) ์ ๋ ฅ์ด ํฐ ๋๊ท๋ชจ ๋ฐ์ดํฐ์ ์ ๊ฒฝ์ฐ, ๋ฉ๋ชจ๋ฆฌ์ ์ ์ฌ์ํค๊ธฐ ์ํด ๋ฆฌ์คํธ ๋์ ์ ๋๋ ์ดํฐ๋ก ์ ๋ ฅ์ ๋ชจ๋ ์ ๋ฌํ ์ ์์ต๋๋ค. ์์ธํ ๋ด์ฉ์ [pipeline API ๋ ํผ๋ฐ์ค](./main_classes/pipelines)๋ฅผ ํ์ธํด์ฃผ์ธ์. | |
### ํ์ดํ๋ผ์ธ์์ ๋ค๋ฅธ ๋ชจ๋ธ์ด๋ tokenizer ์ฌ์ฉํ๋ ๋ฐฉ๋ฒ[[use-another-model-and-tokenizer-in-the-pipeline]] | |
[`pipeline`]์ [Hub](https://huggingface.co/models) ์ ๋ชจ๋ ๋ชจ๋ธ์ ์ฌ์ฉํ ์ ์์ด, ์ผ๋ง๋ ์ง [`pipeline`]์ ์ฌ์ฉํ๊ณ ์ถ์๋๋ก ๋ฐ๊ฟ ์ ์์ต๋๋ค. ์๋ฅผ ๋ค์ด ํ๋์ค์ด ํ ์คํธ๋ฅผ ๋ค๋ฃฐ ์ ์๋ ๋ชจ๋ธ์ ๋ง๋๋ ค๋ฉด, Hub์ ํ๊ทธ๋ก ์ ์ ํ ๋ชจ๋ธ์ ์ฐพ์๋ณด์ธ์. ์์ ๊ฒ์ ๊ฒฐ๊ณผ๋ก ๋ฌ ๊ฐ์ ๋ถ์์ ์ํด ํ์ธํ๋๋ ๋ค๊ตญ์ด [BERT ๋ชจ๋ธ](https://huggingface.co/nlptown/bert-base-multilingual-uncased-sentiment)์ด ํ๋์ค์ด๋ฅผ ์ง์ํ๋๊ตฐ์. | |
```py | |
>>> model_name = "nlptown/bert-base-multilingual-uncased-sentiment" | |
``` | |
<frameworkcontent> | |
<pt> | |
[`AutoModelForSequenceClassification`]๊ณผ [`AutoTokenizer`]๋ก ์ฌ์ ํ์ต๋ ๋ชจ๋ธ๊ณผ ํจ๊ป ์ฐ๊ด๋ ํ ํฌ๋์ด์ ๋ฅผ ๋ถ๋ฌ์ต๋๋ค. (`AutoClass`์ ๋ํ ๋ด์ฉ์ ๋ค์ ์น์ ์์ ์ดํด๋ณด๊ฒ ์ต๋๋ค) | |
```py | |
>>> from transformers import AutoTokenizer, AutoModelForSequenceClassification | |
>>> model = AutoModelForSequenceClassification.from_pretrained(model_name) | |
>>> tokenizer = AutoTokenizer.from_pretrained(model_name) | |
``` | |
</pt> | |
<tf> | |
[`TFAutoModelForSequenceClassification`]๊ณผ [`AutoTokenizer`]๋ก ์ฌ์ ํ์ต๋ ๋ชจ๋ธ๊ณผ ํจ๊ป ์ฐ๊ด๋ ํ ํฌ๋์ด์ ๋ฅผ ๋ถ๋ฌ์ต๋๋ค. (`TFAutoClass`์ ๋ํ ๋ด์ฉ์ ๋ค์ ์น์ ์์ ์ดํด๋ณด๊ฒ ์ต๋๋ค) | |
```py | |
>>> from transformers import AutoTokenizer, TFAutoModelForSequenceClassification | |
>>> model = TFAutoModelForSequenceClassification.from_pretrained(model_name) | |
>>> tokenizer = AutoTokenizer.from_pretrained(model_name) | |
``` | |
</tf> | |
</frameworkcontent> | |
[`pipeline`]์์ ์ฌ์ฉํ ๋ชจ๋ธ๊ณผ ํ ํฌ๋์ด์ ๋ฅผ ์ ๋ ฅํ๋ฉด ์ด์ (๊ฐ์ ๋ถ์๊ธฐ์ธ) `classifier`๋ฅผ ํ๋์ค์ด ํ ์คํธ์ ์ ์ฉํ ์ ์์ต๋๋ค. | |
```py | |
>>> classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer) | |
>>> classifier("Nous sommes trรจs heureux de vous prรฉsenter la bibliothรจque ๐ค Transformers.") | |
[{'label': '5 stars', 'score': 0.7273}] | |
``` | |
ํ๊ณ ์ถ์ ๊ฒ์ ์ ์ฉํ ๋ง๋ ํ ๋ชจ๋ธ์ด ์๋ค๋ฉด, ๊ฐ์ง ๋ฐ์ดํฐ๋ก ์ฌ์ ํ์ต๋ ๋ชจ๋ธ์ ํ์ธํ๋ํด์ผ ํฉ๋๋ค. ์์ธํ ๋ฐฉ๋ฒ์ [ํ์ธํ๋ ํํ ๋ฆฌ์ผ](./training)์ ์ฐธ๊ณ ํด์ฃผ์ธ์. ์ฌ์ ํ์ต๋ ๋ชจ๋ธ์ ํ์ธํ๋์ ๋ง์น์ จ์ผ๋ฉด, ๋๊ตฌ๋ ๋จธ์ ๋ฌ๋์ ํ ์ ์๋๋ก [๊ณต์ ](./model_sharing)ํ๋ ๊ฒ์ ๊ณ ๋ คํด์ฃผ์ธ์. ๐ค | |
## AutoClass | |
<Youtube id="AhChOFRegn4"/> | |
๋ด๋ถ์ ์ผ๋ก ๋ค์ด๊ฐ๋ฉด ์์์ ์ฌ์ฉํ๋ [`pipeline`]์ [`AutoModelForSequenceClassification`]๊ณผ [`AutoTokenizer`] ํด๋์ค๋ก ์๋ํฉ๋๋ค. [AutoClass](./model_doc/auto)๋ ์ด๋ฆ์ด๋ ๊ฒฝ๋ก๋ฅผ ๋ฐ์ผ๋ฉด ๊ทธ์ ์๋ง๋ ์ฌ์ ํ์ต๋ ๋ชจ๋ธ์ ๊ฐ์ ธ์ค๋ '๋ฐ๋ก๊ฐ๊ธฐ'๋ผ๊ณ ๋ณผ ์ ์๋๋ฐ์. ์ํ๋ ํ์คํฌ์ ์ ์ฒ๋ฆฌ์ ์ ํฉํ `AutoClass`๋ฅผ ๊ณ ๋ฅด๊ธฐ๋ง ํ๋ฉด ๋ฉ๋๋ค. | |
์ ์ ์ฌ์ฉํ๋ ์์๋ก ๋์๊ฐ์ `AutoClass`๋ก [`pipeline`]๊ณผ ๋์ผํ ๊ฒฐ๊ณผ๋ฅผ ์ป์ ์ ์๋ ๋ฐฉ๋ฒ์ ์์๋ณด๊ฒ ์ต๋๋ค. | |
### AutoTokenizer | |
ํ ํฌ๋์ด์ ๋ ์ ์ฒ๋ฆฌ๋ฅผ ๋ด๋นํ๋ฉฐ, ํ ์คํธ๋ฅผ ๋ชจ๋ธ์ด ๋ฐ์ ์ซ์ ๋ฐฐ์ด๋ก ๋ฐ๊ฟ๋๋ค. ํ ํฐํ ๊ณผ์ ์๋ ๋จ์ด๋ฅผ ์ด๋์์ ๋์์ง, ์ผ๋งํผ ๋๋์ง ๋ฑ์ ํฌํจํ ์ฌ๋ฌ ๊ท์น์ด ์์ต๋๋ค. ์์ธํ ๋ด์ฉ์ [ํ ํฌ๋์ด์ ์์ฝ](./tokenizer_summary)๋ฅผ ํ์ธํด์ฃผ์ธ์. ์ ์ผ ์ค์ํ ์ ์ ๋ชจ๋ธ์ด ํ๋ จ๋์ ๋์ ๋์ผํ ํ ํฐํ ๊ท์น์ ์ฐ๋๋ก ๋์ผํ ๋ชจ๋ธ ์ด๋ฆ์ผ๋ก ํ ํฌ๋์ด์ ์ธ์คํด์ค๋ฅผ ๋ง๋ค์ด์ผ ํฉ๋๋ค. | |
[`AutoTokenizer`]๋ก ํ ํฌ๋์ด์ ๋ฅผ ๋ถ๋ฌ์ค๊ณ , | |
```py | |
>>> from transformers import AutoTokenizer | |
>>> model_name = "nlptown/bert-base-multilingual-uncased-sentiment" | |
>>> tokenizer = AutoTokenizer.from_pretrained(model_name) | |
``` | |
ํ ํฌ๋์ด์ ์ ํ ์คํธ๋ฅผ ์ ๊ณตํ์ธ์. | |
```py | |
>>> encoding = tokenizer("We are very happy to show you the ๐ค Transformers library.") | |
>>> print(encoding) | |
{'input_ids': [101, 11312, 10320, 12495, 19308, 10114, 11391, 10855, 10103, 100, 58263, 13299, 119, 102], | |
'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], | |
'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]} | |
``` | |
๊ทธ๋ฌ๋ฉด ๋ค์์ ํฌํจํ ๋์ ๋๋ฆฌ๊ฐ ๋ฐํ๋ฉ๋๋ค. | |
* [input_ids](./glossary#input-ids): ์ซ์๋ก ํํ๋ ํ ํฐ๋ค | |
* [attention_mask](.glossary#attention-mask): ์ฃผ์ํ ํ ํฐ๋ค | |
ํ ํฌ๋์ด์ ๋ ์ ๋ ฅ์ ๋ฆฌ์คํธ๋ก๋ ๋ฐ์ ์ ์์ผ๋ฉฐ, ํ ์คํธ๋ฅผ ํจ๋ํ๊ฑฐ๋ ์๋ผ๋ด์ด ๊ท ์ผํ ๊ธธ์ด์ ๋ฐฐ์น๋ฅผ ๋ฐํํ ์๋ ์์ต๋๋ค. | |
<frameworkcontent> | |
<pt> | |
```py | |
>>> pt_batch = tokenizer( | |
... ["We are very happy to show you the ๐ค Transformers library.", "We hope you don't hate it."], | |
... padding=True, | |
... truncation=True, | |
... max_length=512, | |
... return_tensors="pt", | |
... ) | |
``` | |
</pt> | |
<tf> | |
```py | |
>>> tf_batch = tokenizer( | |
... ["We are very happy to show you the ๐ค Transformers library.", "We hope you don't hate it."], | |
... padding=True, | |
... truncation=True, | |
... max_length=512, | |
... return_tensors="tf", | |
... ) | |
``` | |
</tf> | |
</frameworkcontent> | |
<Tip> | |
[์ ์ฒ๋ฆฌ](./preprocessing) ํํ ๋ฆฌ์ผ์ ๋ณด์๋ฉด ํ ํฐํ์ ๋ํ ์์ธํ ์ค๋ช ๊ณผ ํจ๊ป ์ด๋ฏธ์ง, ์ค๋์ค์ ๋ฉํฐ๋ชจ๋ฌ ์ ๋ ฅ์ ์ ์ฒ๋ฆฌํ๊ธฐ ์ํ [`AutoFeatureExtractor`]๊ณผ [`AutoProcessor`]์ ์ฌ์ฉ๋ฐฉ๋ฒ๋ ์ ์ ์์ต๋๋ค. | |
</Tip> | |
### AutoModel | |
<frameworkcontent> | |
<pt> | |
๐ค Transformers๋ก ์ฌ์ ํ์ต๋ ์ธ์คํด์ค๋ฅผ ๊ฐ๋จํ๊ณ ํต์ผ๋ ๋ฐฉ์์ผ๋ก ๋ถ๋ฌ์ฌ ์ ์์ต๋๋ค. ์ด๋ฌ๋ฉด [`AutoTokenizer`]์ฒ๋ผ [`AutoModel`]๋ ๋ถ๋ฌ์ฌ ์ ์๊ฒ ๋ฉ๋๋ค. ์ ์ผํ ์ฐจ์ด์ ์ ํ์คํฌ์ ์ ํฉํ [`AutoModel`]์ ์ ํํด์ผ ํ๋ค๋ ์ ์ ๋๋ค. ํ ์คํธ(๋๋ ์ํ์ค) ๋ถ๋ฅ์ ๊ฒฝ์ฐ [`AutoModelForSequenceClassification`]์ ๋ถ๋ฌ์์ผ ํฉ๋๋ค. | |
```py | |
>>> from transformers import AutoModelForSequenceClassification | |
>>> model_name = "nlptown/bert-base-multilingual-uncased-sentiment" | |
>>> pt_model = AutoModelForSequenceClassification.from_pretrained(model_name) | |
``` | |
<Tip> | |
[`AutoModel`] ํด๋์ค์์ ์ง์ํ๋ ํ์คํฌ๋ค์ [ํ์คํฌ ์ ๋ฆฌ](./task_summary) ๋ฌธ์๋ฅผ ์ฐธ๊ณ ํด์ฃผ์ธ์. | |
</Tip> | |
์ด์ ์ ์ฒ๋ฆฌ๋ ์ ๋ ฅ ๋ฐฐ์น๋ฅผ ๋ชจ๋ธ๋ก ์ง์ ๋ณด๋ด์ผ ํฉ๋๋ค. ์๋์ฒ๋ผ `**`๋ฅผ ์์ ๋ถ์ฌ ๋์ ๋๋ฆฌ๋ฅผ ํ์ด์ฃผ๊ธฐ๋ง ํ๋ฉด ๋ฉ๋๋ค. | |
```py | |
>>> pt_outputs = pt_model(**pt_batch) | |
``` | |
๋ชจ๋ธ์ activation ๊ฒฐ๊ณผ๋ `logits` ์์ฑ์ ๋ด๊ฒจ์์ต๋๋ค. `logits`์ Softmax ํจ์๋ฅผ ์ ์ฉํด์ ํ๋ฅ ํํ๋ก ๋ฐ์ผ์ธ์. | |
```py | |
>>> from torch import nn | |
>>> pt_predictions = nn.functional.softmax(pt_outputs.logits, dim=-1) | |
>>> print(pt_predictions) | |
tensor([[0.0021, 0.0018, 0.0115, 0.2121, 0.7725], | |
[0.2084, 0.1826, 0.1969, 0.1755, 0.2365]], grad_fn=<SoftmaxBackward0>) | |
``` | |
</pt> | |
<tf> | |
๐ค Transformers๋ ์ฌ์ ํ์ต๋ ์ธ์คํด์ค๋ฅผ ๊ฐ๋จํ๊ณ ํต์ผ๋ ๋ฐฉ์์ผ๋ก ๋ถ๋ฌ์ฌ ์ ์์ต๋๋ค. ์ด๋ฌ๋ฉด [`AutoTokenizer`]์ฒ๋ผ [`TFAutoModel`]๋ ๋ถ๋ฌ์ฌ ์ ์๊ฒ ๋ฉ๋๋ค. ์ ์ผํ ์ฐจ์ด์ ์ ํ์คํฌ์ ์ ํฉํ [`TFAutoModel`]๋ฅผ ์ ํํด์ผ ํ๋ค๋ ์ ์ ๋๋ค. ํ ์คํธ(๋๋ ์ํ์ค) ๋ถ๋ฅ์ ๊ฒฝ์ฐ [`TFAutoModelForSequenceClassification`]์ ๋ถ๋ฌ์์ผ ํฉ๋๋ค. | |
```py | |
>>> from transformers import TFAutoModelForSequenceClassification | |
>>> model_name = "nlptown/bert-base-multilingual-uncased-sentiment" | |
>>> tf_model = TFAutoModelForSequenceClassification.from_pretrained(model_name) | |
``` | |
<Tip> | |
[`AutoModel`] ํด๋์ค์์ ์ง์ํ๋ ํ์คํฌ๋ค์ [ํ์คํฌ ์ ๋ฆฌ](./task_summary) ๋ฌธ์๋ฅผ ์ฐธ๊ณ ํด์ฃผ์ธ์. | |
</Tip> | |
์ด์ ์ ์ฒ๋ฆฌ๋ ์ ๋ ฅ ๋ฐฐ์น๋ฅผ ๋ชจ๋ธ๋ก ์ง์ ๋ณด๋ด์ผ ํฉ๋๋ค. ๋์ ๋๋ฆฌ์ ํค๋ฅผ ํ ์์ ์ง์ ๋ฃ์ด์ฃผ๊ธฐ๋ง ํ๋ฉด ๋ฉ๋๋ค. | |
```py | |
>>> tf_outputs = tf_model(tf_batch) | |
``` | |
๋ชจ๋ธ์ activation ๊ฒฐ๊ณผ๋ `logits` ์์ฑ์ ๋ด๊ฒจ์์ต๋๋ค. `logits`์ Softmax ํจ์๋ฅผ ์ ์ฉํด์ ํ๋ฅ ํํ๋ก ๋ฐ์ผ์ธ์. | |
```py | |
>>> import tensorflow as tf | |
>>> tf_predictions = tf.nn.softmax(tf_outputs.logits, axis=-1) | |
>>> tf_predictions # doctest: +IGNORE_RESULT | |
``` | |
</tf> | |
</frameworkcontent> | |
<Tip> | |
๋ชจ๋ (PyTorch ๋๋ TensorFlow) ๐ค Transformers ๋ชจ๋ธ์ (softmax ๋ฑ์) ์ต์ข activation ํจ์ *์ด์ ์* ํ ์๋ฅผ ๋ด๋์ต๋๋ค. ์๋ํ๋ฉด ์ต์ข activation ํจ์๋ฅผ ์ข ์ข loss ํจ์์ ๋์ผ์ํ๊ธฐ ๋๋ฌธ์ ๋๋ค. ๋ชจ๋ธ ์ถ๋ ฅ์ ํน์ ๋ฐ์ดํฐ ํด๋์ค์ด๋ฏ๋ก ํด๋น ์์ฑ์ IDE์์ ์๋์ผ๋ก ์์ฑ๋ฉ๋๋ค. ๋ชจ๋ธ ์ถ๋ ฅ์ ํํ ๋๋ (์ ์, ์ฌ๋ผ์ด์ค ๋๋ ๋ฌธ์์ด๋ก ์ธ๋ฑ์ฑํ๋) ๋์ ๋๋ฆฌ ํํ๋ก ์ฃผ์ด์ง๊ณ ์ด๋ฐ ๊ฒฝ์ฐ None์ธ ์์ฑ์ ๋ฌด์๋ฉ๋๋ค. | |
</Tip> | |
### ๋ชจ๋ธ ์ ์ฅํ๊ธฐ[[save-a-model]] | |
<frameworkcontent> | |
<pt> | |
๋ชจ๋ธ์ ํ์ธํ๋ํ ๋ค์๋ [`PreTrainedModel.save_pretrained`]๋ก ๋ชจ๋ธ์ ํ ํฌ๋์ด์ ์ ํจ๊ป ์ ์ฅํ ์ ์์ต๋๋ค. | |
```py | |
>>> pt_save_directory = "./pt_save_pretrained" | |
>>> tokenizer.save_pretrained(pt_save_directory) # doctest: +IGNORE_RESULT | |
>>> pt_model.save_pretrained(pt_save_directory) | |
``` | |
๋ชจ๋ธ์ ๋ค์ ์ฌ์ฉํ ๋๋ [`PreTrainedModel.from_pretrained`]๋ก ๋ค์ ๋ถ๋ฌ์ค๋ฉด ๋ฉ๋๋ค. | |
```py | |
>>> pt_model = AutoModelForSequenceClassification.from_pretrained("./pt_save_pretrained") | |
``` | |
</pt> | |
<tf> | |
๋ชจ๋ธ์ ํ์ธํ๋ํ ๋ค์๋ [`TFPreTrainedModel.save_pretrained`]๋ก ๋ชจ๋ธ์ ํ ํฌ๋์ด์ ์ ํจ๊ป ์ ์ฅํ ์ ์์ต๋๋ค. | |
```py | |
>>> tf_save_directory = "./tf_save_pretrained" | |
>>> tokenizer.save_pretrained(tf_save_directory) # doctest: +IGNORE_RESULT | |
>>> tf_model.save_pretrained(tf_save_directory) | |
``` | |
๋ชจ๋ธ์ ๋ค์ ์ฌ์ฉํ ๋๋ [`TFPreTrainedModel.from_pretrained`]๋ก ๋ค์ ๋ถ๋ฌ์ค๋ฉด ๋ฉ๋๋ค. | |
```py | |
>>> tf_model = TFAutoModelForSequenceClassification.from_pretrained("./tf_save_pretrained") | |
``` | |
</tf> | |
</frameworkcontent> | |
๐ค Transformers ๊ธฐ๋ฅ ์ค ํนํ ์ฌ๋ฏธ์๋ ํ ๊ฐ์ง๋ ๋ชจ๋ธ์ ์ ์ฅํ๊ณ PyTorch๋ TensorFlow ๋ชจ๋ธ๋ก ๋ค์ ๋ถ๋ฌ์ฌ ์ ์๋ ๊ธฐ๋ฅ์ ๋๋ค. 'from_pt' ๋๋ 'from_tf' ๋งค๊ฐ๋ณ์๋ฅผ ์ฌ์ฉํด ๋ชจ๋ธ์ ๊ธฐ์กด๊ณผ ๋ค๋ฅธ ํ๋ ์์ํฌ๋ก ๋ณํ์ํฌ ์ ์์ต๋๋ค. | |
<frameworkcontent> | |
<pt> | |
```py | |
>>> from transformers import AutoModel | |
>>> tokenizer = AutoTokenizer.from_pretrained(tf_save_directory) | |
>>> pt_model = AutoModelForSequenceClassification.from_pretrained(tf_save_directory, from_tf=True) | |
``` | |
</pt> | |
<tf> | |
```py | |
>>> from transformers import TFAutoModel | |
>>> tokenizer = AutoTokenizer.from_pretrained(pt_save_directory) | |
>>> tf_model = TFAutoModelForSequenceClassification.from_pretrained(pt_save_directory, from_pt=True) | |
``` | |
</tf> | |
</frameworkcontent> | |
## ์ปค์คํ ๋ชจ๋ธ ๊ตฌ์ถํ๊ธฐ[[custom-model-builds]] | |
๋ชจ๋ธ์ ๊ตฌ์ฑ ํด๋์ค๋ฅผ ์์ ํ์ฌ ๋ชจ๋ธ์ ๊ตฌ์กฐ๋ฅผ ๋ฐ๊ฟ ์ ์์ต๋๋ค. ์๋์ธต, ์ดํ ์ ํค๋ ์์ ๊ฐ์ ๋ชจ๋ธ์ ์์ฑ์ ๊ตฌ์ฑ์์ ์ง์ ํฉ๋๋ค. ์ปค์คํ ๊ตฌ์ฑ ํด๋์ค์์ ๋ชจ๋ธ์ ๋ง๋ค๋ฉด ์ฒ์๋ถํฐ ์์ํด์ผ ํฉ๋๋ค. ๋ชจ๋ธ ์์ฑ์ ๋๋คํ๊ฒ ์ด๊ธฐํ๋๋ฏ๋ก ์๋ฏธ ์๋ ๊ฒฐ๊ณผ๋ฅผ ์ป์ผ๋ ค๋ฉด ๋จผ์ ๋ชจ๋ธ์ ํ๋ จ์ํฌ ํ์๊ฐ ์์ต๋๋ค. | |
๋จผ์ [`AutoConfig`]๋ฅผ ์ํฌํธํ๊ณ , ์์ ํ๊ณ ์ถ์ ์ฌ์ ํ์ต๋ ๋ชจ๋ธ์ ๋ถ๋ฌ์ค์ธ์. [`AutoConfig.from_pretrained`]์์ ์ดํ ์ ํค๋ ์ ๊ฐ์ ์์ฑ์ ๋ณ๊ฒฝํ ์ ์์ต๋๋ค. | |
```py | |
>>> from transformers import AutoConfig | |
>>> my_config = AutoConfig.from_pretrained("distilbert-base-uncased", n_heads=12) | |
``` | |
<frameworkcontent> | |
<pt> | |
[`AutoModel.from_config`]๋ฅผ ์ฌ์ฉํ์ฌ ์ปค์คํ ๊ตฌ์ฑ๋๋ก ๋ชจ๋ธ์ ์์ฑํฉ๋๋ค. | |
```py | |
>>> from transformers import AutoModel | |
>>> my_model = AutoModel.from_config(my_config) | |
``` | |
</pt> | |
<tf> | |
[`TFAutoModel.from_config`]๋ฅผ ์ฌ์ฉํ์ฌ ์ปค์คํ ๊ตฌ์ฑ๋๋ก ๋ชจ๋ธ์ ์์ฑํฉ๋๋ค. | |
```py | |
>>> from transformers import TFAutoModel | |
>>> my_model = TFAutoModel.from_config(my_config) | |
``` | |
</tf> | |
</frameworkcontent> | |
์ปค์คํ ๊ตฌ์ฑ์ ์์ฑํ๋ ๋ฐฉ๋ฒ์ ๋ํ ์์ธํ ๋ด์ฉ์ [์ปค์คํ ์ํคํ ์ฒ ๋ง๋ค๊ธฐ](./create_a_model) ๊ฐ์ด๋๋ฅผ ์ฐธ๊ณ ํ์ธ์. | |
## Trainer - PyTorch์ ์ต์ ํ๋ ํ๋ จ ๋ฐ๋ณต ๋ฃจํ[[trainer-a-pytorch-optimized-training-loop]] | |
๋ชจ๋ ๋ชจ๋ธ์ [`torch.nn.Module`](https://pytorch.org/docs/stable/nn.html#torch.nn.Module)์ด์ด์ ๋๋ค์์ ํ๋ จ ๋ฐ๋ณต ๋ฃจํ์ ์ฌ์ฉํ ์ ์์ต๋๋ค. ์ฌ์ฉ์๊ฐ ์ง์ ํ๋ จ ๋ฐ๋ณต ๋ฃจํ๋ฅผ ์์ฑํด๋ ๋์ง๋ง, ๐ค Transformers๋ PyTorch์ฉ [`Trainer`] ํด๋์ค๋ฅผ ์ ๊ณตํฉ๋๋ค. ๊ธฐ๋ณธ์ ์ธ ํ๋ จ ๋ฐํญ ๋ฃจํ๊ฐ ํฌํจ๋์ด ์๊ณ , ๋ถ์ฐ ํ๋ จ์ด๋ ํผํฉ ์ ๋ฐ๋ ๋ฑ์ ์ถ๊ฐ ๊ธฐ๋ฅ๋ ์์ต๋๋ค. | |
ํ์คํฌ์ ๋ฐ๋ผ ๋ค๋ฅด์ง๋ง, ์ผ๋ฐ์ ์ผ๋ก ๋ค์ ๋งค๊ฐ๋ณ์๋ฅผ [`Trainer`]์ ์ ๋ฌํ ๊ฒ์ ๋๋ค. | |
1. [`PreTrainedModel`] ๋๋ [`torch.nn.Module`](https://pytorch.org/docs/stable/nn.html#torch.nn.Module)๋ก ์์ํฉ๋๋ค. | |
```py | |
>>> from transformers import AutoModelForSequenceClassification | |
>>> model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased") | |
``` | |
2. [`TrainingArguments`]๋ก ํ์ต๋ฅ , ๋ฐฐ์น ํฌ๊ธฐ๋ ํ๋ จํ epoch ์์ ๊ฐ์ด ๋ชจ๋ธ์ ํ์ดํผํ๋ผ๋ฏธํฐ๋ฅผ ์กฐ์ ํฉ๋๋ค. ๊ธฐ๋ณธ๊ฐ์ ํ๋ จ ์ธ์๋ฅผ ์ ํ ์ง์ ํ์ง ์์ ๊ฒฝ์ฐ ์ฌ์ฉ๋ฉ๋๋ค. | |
```py | |
>>> from transformers import TrainingArguments | |
>>> training_args = TrainingArguments( | |
... output_dir="path/to/save/folder/", | |
... learning_rate=2e-5, | |
... per_device_train_batch_size=8, | |
... per_device_eval_batch_size=8, | |
... num_train_epochs=2, | |
... ) | |
``` | |
3. ํ ํฌ๋์ด์ , ํน์ง์ถ์ถ๊ธฐ(feature extractor), ์ ์ฒ๋ฆฌ๊ธฐ(processor) ํด๋์ค ๋ฑ์ผ๋ก ์ ์ฒ๋ฆฌ๋ฅผ ์ํํฉ๋๋ค. | |
```py | |
>>> from transformers import AutoTokenizer | |
>>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") | |
``` | |
4. ๋ฐ์ดํฐ์ ๋ฅผ ์ ์ฌํฉ๋๋ค. | |
```py | |
>>> from datasets import load_dataset | |
>>> dataset = load_dataset("rotten_tomatoes") # doctest: +IGNORE_RESULT | |
``` | |
5. ๋ฐ์ดํฐ์ ์ ํ ํฐํํ๋ ํจ์๋ฅผ ๋ง๋ค๊ณ [`~datasets.Dataset.map`]์ผ๋ก ์ ์ฒด ๋ฐ์ดํฐ์ ์ ์ ์ฉ์ํต๋๋ค. | |
```py | |
>>> def tokenize_dataset(dataset): | |
... return tokenizer(dataset["text"]) | |
>>> dataset = dataset.map(tokenize_dataset, batched=True) | |
``` | |
6. [`DataCollatorWithPadding`]๋ก ๋ฐ์ดํฐ์ ์ผ๋ก๋ถํฐ ํ๋ณธ์ผ๋ก ์ผ์ ๋ฐฐ์น๋ฅผ ๋ง๋ญ๋๋ค. | |
```py | |
>>> from transformers import DataCollatorWithPadding | |
>>> data_collator = DataCollatorWithPadding(tokenizer=tokenizer) | |
``` | |
์ด์ ์์ ๋ชจ๋ ํด๋์ค๋ฅผ [`Trainer`]๋ก ๋ชจ์ผ์ธ์. | |
```py | |
>>> from transformers import Trainer | |
>>> trainer = Trainer( | |
... model=model, | |
... args=training_args, | |
... train_dataset=dataset["train"], | |
... eval_dataset=dataset["test"], | |
... tokenizer=tokenizer, | |
... data_collator=data_collator, | |
... ) # doctest: +SKIP | |
``` | |
์ค๋น๋์์ผ๋ฉด [`~Trainer.train`]์ผ๋ก ํ๋ จ์ ์์ํ์ธ์. | |
```py | |
>>> trainer.train() # doctest: +SKIP | |
``` | |
<Tip> | |
sequence-to-sequence ๋ชจ๋ธ์ ์ฌ์ฉํ๋ (๋ฒ์ญ์ด๋ ์์ฝ ๊ฐ์) ํ์คํฌ์ ๊ฒฝ์ฐ [`Seq2SeqTrainer`]์ [`Seq2SeqTrainingArguments`] ํด๋์ค๋ฅผ ๋์ ์ฌ์ฉํ์๊ธฐ ๋ฐ๋๋๋ค. | |
</Tip> | |
[`Trainer`] ๋ด๋ถ์ ๋ฉ์๋๋ฅผ ๊ตฌํ ์์(subclassing)ํด์ ํ๋ จ ๋ฐ๋ณต ๋ฃจํ๋ฅผ ๊ฐ์กฐํ ์๋ ์์ต๋๋ค. ์ด๋ฌ๋ฉด loss ํจ์, optimizer, scheduler ๋ฑ์ ๊ธฐ๋ฅ๋ ๊ฐ์กฐํ ์ ์์ต๋๋ค. ์ด๋ค ๋ฉ์๋๋ฅผ ๊ตฌํ ์์ํ ์ ์๋์ง ์์๋ณด๋ ค๋ฉด [`Trainer`]๋ฅผ ์ฐธ๊ณ ํ์ธ์. | |
ํ๋ จ ๋ฐ๋ณต ๋ฃจํ๋ฅผ ๊ฐ์กฐํ๋ ๋ค๋ฅธ ๋ฐฉ๋ฒ์ [Callbacks](./main_classes/callbacks)๋ฅผ ์ฌ์ฉํ๋ ๊ฒ์ ๋๋ค. Callbacks๋ก ๋ค๋ฅธ ๋ผ์ด๋ธ๋ฌ๋ฆฌ์ ํตํฉํ๊ณ , ํ๋ จ ๋ฐ๋ณต ๋ฃจํ๋ฅผ ์์๋ก ์ฒดํฌํ์ฌ ์งํ ์ํฉ์ ๋ณด๊ณ ๋ฐ๊ฑฐ๋, ํ๋ จ์ ์กฐ๊ธฐ์ ์ค๋จํ ์ ์์ต๋๋ค. Callbacks์ ํ๋ จ ๋ฐ๋ณต ๋ฃจํ ์์ฒด๋ฅผ ์ ํ ์์ ํ์ง ์์ต๋๋ค. ๋ง์ฝ loss ํจ์ ๋ฑ์ ๊ฐ์กฐํ๊ณ ์ถ๋ค๋ฉด [`Trainer`]๋ฅผ ๊ตฌํ ์์ํด์ผ๋ง ํฉ๋๋ค. | |
## TensorFlow๋ก ํ๋ จ์ํค๊ธฐ[[train-with-tensorflow]] | |
๋ชจ๋ ๋ชจ๋ธ์ [`tf.keras.Model`](https://www.tensorflow.org/api_docs/python/tf/keras/Model)์ด์ด์ [Keras](https://keras.io/) API๋ฅผ ํตํด TensorFlow์์ ํ๋ จ์ํฌ ์ ์์ต๋๋ค. ๐ค Transformers์์ ๋ฐ์ดํฐ์ ๋ฅผ `tf.data.Dataset` ํํ๋ก ์ฝ๊ฒ ์ ์ฌํ ์ ์๋ [`~TFPreTrainedModel.prepare_tf_dataset`] ๋ฉ์๋๋ฅผ ์ ๊ณตํ๊ธฐ ๋๋ฌธ์, Keras์ [`compile`](https://keras.io/api/models/model_training_apis/#compile-method) ๋ฐ [`fit`](https://www.tensorflow.org/api_docs/python/tf/keras/Model) ๋ฉ์๋๋ก ์ฆ์ ํ๋ จ์ ์์ํ ์ ์์ต๋๋ค. | |
1. [`TFPreTrainedModel`] ๋๋ [`tf.keras.Model`](https://www.tensorflow.org/api_docs/python/tf/keras/Model)๋ก ์์ํฉ๋๋ค. | |
```py | |
>>> from transformers import TFAutoModelForSequenceClassification | |
>>> model = TFAutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased") | |
``` | |
2. ํ ํฌ๋์ด์ , ํน์ง์ถ์ถ๊ธฐ(feature extractor), ์ ์ฒ๋ฆฌ๊ธฐ(processor) ํด๋์ค ๋ฑ์ผ๋ก ์ ์ฒ๋ฆฌ๋ฅผ ์ํํฉ๋๋ค. | |
```py | |
>>> from transformers import AutoTokenizer | |
>>> tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased") | |
``` | |
3. ๋ฐ์ดํฐ์ ์ ํ ํฐํํ๋ ํจ์๋ฅผ ๋ง๋ญ๋๋ค. | |
```py | |
>>> def tokenize_dataset(dataset): | |
... return tokenizer(dataset["text"]) # doctest: +SKIP | |
``` | |
4. [`~datasets.Dataset.map`]์ผ๋ก ์ ์ฒด ๋ฐ์ดํฐ์ ์ ์ ํจ์๋ฅผ ์ ์ฉ์ํจ ๋ค์, ๋ฐ์ดํฐ์ ๊ณผ ํ ํฌ๋์ด์ ๋ฅผ [`~TFPreTrainedModel.prepare_tf_dataset`]๋ก ์ ๋ฌํฉ๋๋ค. ๋ฐฐ์น ํฌ๊ธฐ๋ฅผ ๋ณ๊ฒฝํด๋ณด๊ฑฐ๋ ๋ฐ์ดํฐ์ ๋ฅผ ์์ด๋ด๋ ์ข์ต๋๋ค. | |
```py | |
>>> dataset = dataset.map(tokenize_dataset) # doctest: +SKIP | |
>>> tf_dataset = model.prepare_tf_dataset( | |
... dataset, batch_size=16, shuffle=True, tokenizer=tokenizer | |
... ) # doctest: +SKIP | |
``` | |
5. ์ค๋น๋์์ผ๋ฉด `compile`๊ณผ `fit`์ผ๋ก ํ๋ จ์ ์์ํ์ธ์. | |
```py | |
>>> from tensorflow.keras.optimizers import Adam | |
>>> model.compile(optimizer=Adam(3e-5)) | |
>>> model.fit(dataset) # doctest: +SKIP | |
``` | |
## ์ด์ ๋ฌด์ผ ํ๋ฉด ๋ ๊น์?[[whats-next]] | |
๐ค Transformers ๋๋ฌ๋ณด๊ธฐ๋ฅผ ๋ชจ๋ ์ฝ์ผ์ จ๋ค๋ฉด, ๊ฐ์ด๋๋ฅผ ํตํด ํน์ ๊ธฐ์ ์ ๋ฐฐ์ธ ์ ์์ด์. ์๋ฅผ ๋ค์ด ์ปค์คํ ๋ชจ๋ธ์ ์์ฑํ๋ ๋ฐฉ๋ฒ, ํ์คํฌ์ฉ ๋ชจ๋ธ์ ํ์ธํ๋ํ๋ ๋ฐฉ๋ฒ, ์คํฌ๋ฆฝํธ๋ก ๋ชจ๋ธ์ ํ๋ จ์ํค๋ ๋ฐฉ๋ฒ ๋ฑ์ด ์์ต๋๋ค. ๐ค Transformers์ ํต์ฌ ๊ฐ๋ ์ ๋ํด ์์ธํ ์์๋ณด๋ ค๋ฉด ์ปคํผ ํ ์์ ๋ง์ ๋ค ๊ฐ๋ ๊ฐ์ด๋๋ฅผ ์ดํด๋ณด์ ๋ ์ข์ต๋๋ค! | |