kazuma313 commited on
Commit
c6d5b34
1 Parent(s): 1e6b7d8

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +5 -6
app.py CHANGED
@@ -12,12 +12,11 @@ model_path = hf_hub_download(model_name, filename=model_file)
12
  llm = Llama(
13
  model_path=model_path,
14
  n_ctx=2048, # Context length to use
15
- # n_threads=4, # Number of CPU threads to use
16
  # n_gpu_layers=0 # Number of model layers to offload to GPU
17
  # chat_format="chatml",
18
  verbose=False
19
-
20
- )
21
 
22
  prompt_template="""<|begin_of_text|>Dibawah ini adalah percakapan antara dokter dengan pasiennya yang ingin berkonsultasi terkait kesehatan. Tuliskan jawaban yang tepat dan lengkap sesuai sesuai pertanyaan dari pasien.<|end_of_text|>
23
 
@@ -49,8 +48,8 @@ def output_inference(tanya, history):
49
  yield temp
50
 
51
  history = ["init", prompt]
52
-
53
-
54
  gr.ChatInterface(
55
  output_inference,
56
  chatbot=gr.Chatbot(height=300),
@@ -63,4 +62,4 @@ gr.ChatInterface(
63
  retry_btn=None,
64
  undo_btn="Delete Previous",
65
  clear_btn="Clear",
66
- ).launch()
 
12
  llm = Llama(
13
  model_path=model_path,
14
  n_ctx=2048, # Context length to use
15
+ n_threads=4, # Number of CPU threads to use
16
  # n_gpu_layers=0 # Number of model layers to offload to GPU
17
  # chat_format="chatml",
18
  verbose=False
19
+ )
 
20
 
21
  prompt_template="""<|begin_of_text|>Dibawah ini adalah percakapan antara dokter dengan pasiennya yang ingin berkonsultasi terkait kesehatan. Tuliskan jawaban yang tepat dan lengkap sesuai sesuai pertanyaan dari pasien.<|end_of_text|>
22
 
 
48
  yield temp
49
 
50
  history = ["init", prompt]
51
+
52
+
53
  gr.ChatInterface(
54
  output_inference,
55
  chatbot=gr.Chatbot(height=300),
 
62
  retry_btn=None,
63
  undo_btn="Delete Previous",
64
  clear_btn="Clear",
65
+ ).launch()