Update README.md
Browse files
README.md
CHANGED
@@ -67,6 +67,7 @@ pip install git+https://github.com/HazyResearch/flash-attention.git@v2.1.1#subdi
|
|
67 |
Then load the model in transformers:
|
68 |
```python
|
69 |
from transformers import pipeline
|
|
|
70 |
|
71 |
system_prompt = """<|im_start|>system
|
72 |
Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
|
|
|
67 |
Then load the model in transformers:
|
68 |
```python
|
69 |
from transformers import pipeline
|
70 |
+
import torch
|
71 |
|
72 |
system_prompt = """<|im_start|>system
|
73 |
Dies ist eine Unterhaltung zwischen einem intelligenten, hilfsbereitem KI-Assistenten und einem Nutzer.
|