Spaces:
Sleeping
Sleeping
## Imports | |
from huggingface_hub import hf_hub_download | |
from llama_cpp import Llama | |
import gradio as gr | |
## Download the GGUF model | |
model_name = "kazuma313/lora_model_dokter_consultasi_q4_k_m" | |
model_file = "lora_model_dokter_consultasi_q4_k_m-unsloth.Q4_K_M.gguf" # this is the specific model file we'll use in this example. It's a 4-bit quant, but other levels of quantization are available in the model repo if preferred | |
model_path = hf_hub_download(model_name, filename=model_file) | |
prompt_template="""<|begin_of_text|>Dibawah ini adalah percakapan antara dokter dengan pasiennya yang ingin berkonsultasi terkait kesehatan. Tuliskan jawaban yang tepat dan lengkap sesuai sesuai pertanyaan dari pasien.<|end_of_text|> | |
### Pertanyaan: | |
{ask} | |
### Jawaban: | |
""" | |
def output_inference(tanya, history): | |
prompt = prompt_template.format(ask=tanya) | |
output = llm( | |
prompt, | |
stop=["<|end_of_text|>"], | |
max_tokens=512, | |
temperature=0.3, | |
top_p=0.95, | |
top_k=40, | |
min_p=0.05, | |
typical_p=1.0, | |
stream=False, | |
) | |
return output['choices'][0]['text'] | |
gr.ChatInterface( | |
output_inference, | |
chatbot=gr.Chatbot(height=300), | |
textbox=gr.Textbox(placeholder="Tanya saya kesehatan anda", container=False, scale=7), | |
title="Konsultasi dokter", | |
description="Tanya saja semua keluhan mu", | |
theme="soft", | |
examples=["apa saja tips hidup sehat?", "apa penyebab dari minum alkohol berlebihan?", "apa yang terjadi jika pola tidur tidak teratur?", "berapa hasil dari 10 + 5?"], | |
cache_examples=True, | |
retry_btn=None, | |
undo_btn="Delete Previous", | |
clear_btn="Clear", | |
).launch() |