Update README.md
Browse files
README.md
CHANGED
@@ -70,6 +70,7 @@ pip install git+https://github.com/HazyResearch/flash-attention.git@v2.1.1#subdi
|
|
70 |
Then load the model in transformers:
|
71 |
```python
|
72 |
from transformers import pipeline
|
|
|
73 |
|
74 |
system_prompt = """<|im_start|>system
|
75 |
Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
|
|
|
70 |
Then load the model in transformers:
|
71 |
```python
|
72 |
from transformers import pipeline
|
73 |
+
import torch
|
74 |
|
75 |
system_prompt = """<|im_start|>system
|
76 |
Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
|