File size: 1,884 Bytes
76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 76eb30f e544e19 239d561 e544e19 239d561 e544e19 76eb30f e544e19 76eb30f 239d561 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 |
---
language:
- ja
license: other
tags:
- text-generation-inference
- transformers
- trl
- deepseek
datasets:
- nu-dialogue/jmultiwoz
- kunishou/amenokaku-code-instruct
- HachiML/alpaca_jp_python
license_name: fugaku-llm-tou
base_model: Fugaku-LLM/Fugaku-LLM-13B-instruct
---
# Uploaded model
- **Developed by:** taoki
- **License:** Fugaku-LLM Terms of Use
- **Finetuned from model :** Fugaku-LLM/Fugaku-LLM-13B-instruct
# Usage
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained(
"taoki/Fugaku-LLM-13B-instruct-qlora-jmultiwoz-dolly-amenokaku-alpaca_jp_python"
)
model = AutoModelForCausalLM.from_pretrained(
"taoki/Fugaku-LLM-13B-instruct-qlora-jmultiwoz-dolly-amenokaku-alpaca_jp_python"
)
if torch.cuda.is_available():
model = model.to("cuda")
prompt="""以下は、タスクを説明する指示です。要求を適切に満たす応答を書きなさい。
### 指示:
OpenCVを用いて定点カメラから画像を保存するコードを示してください。
### 応答:
"""
input_ids = tokenizer.encode(prompt,
add_special_tokens=False,
return_tensors="pt")
tokens = model.generate(
input_ids.to(device=model.device),
max_new_tokens=128,
do_sample=True,
temperature=0.1,
top_p=1.0,
repetition_penalty=1.0,
top_k=0
)
out = tokenizer.decode(tokens[0], skip_special_tokens=False)
print(out)
```
# Output
````
以下は、タスクを説明する指示です。要求を適切に満たす応答を書きなさい。
### 指示:
OpenCVを用いて定点カメラから画像を保存するコードを示してください。
### 応答:
```python
import cv2
# 画像を読み込む
img = cv2.imread('image.jpg')
# 画像を保存する
cv2.imwrite('output.jpg', img)
```<EOD|LLM-jp>
````
|