Update main.py
Browse files
main.py
CHANGED
@@ -49,7 +49,7 @@ async def chat_profile():
|
|
49 |
]
|
50 |
|
51 |
@cl.on_chat_start
|
52 |
-
async def
|
53 |
await cl.Message(f"> REVIEWSTREAM").send()
|
54 |
await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
|
55 |
listPrompts_name = f"Liste des revues de recherche"
|
@@ -73,41 +73,7 @@ async def start():
|
|
73 |
]
|
74 |
).send()
|
75 |
|
76 |
-
cl.user_session.set("memory", ConversationBufferMemory(return_messages=True))
|
77 |
-
memory = cl.user_session.get("memory")
|
78 |
-
template = """<s>[INST] Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant.
|
79 |
-
|
80 |
-
En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous à partir du contexte ci-dessous. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes.
|
81 |
-
{context}
|
82 |
-
{question} [/INST] </s>
|
83 |
-
"""
|
84 |
-
|
85 |
-
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
|
86 |
-
repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
|
87 |
-
|
88 |
-
model = HuggingFaceEndpoint(
|
89 |
-
repo_id=repo_id, max_new_tokens=8000, temperature=1.0, task="text2text-generation", streaming=True
|
90 |
-
)
|
91 |
|
92 |
-
prompt = ChatPromptTemplate.from_messages(
|
93 |
-
[
|
94 |
-
(
|
95 |
-
"system",
|
96 |
-
f"Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie. En fonction des informations suivantes et du contexte suivant seulement et strictement.",
|
97 |
-
),
|
98 |
-
MessagesPlaceholder(variable_name="history"),
|
99 |
-
("human", "Contexte : {context}, réponds à la question suivante de la manière la plus pertinente, la plus exhaustive et la plus détaillée possible. {question}."),
|
100 |
-
]
|
101 |
-
)
|
102 |
-
runnable = (
|
103 |
-
RunnablePassthrough.assign(
|
104 |
-
history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
|
105 |
-
)
|
106 |
-
| prompt
|
107 |
-
| model
|
108 |
-
)
|
109 |
-
cl.user_session.set("runnable", runnable)
|
110 |
-
return runnable
|
111 |
|
112 |
@cl.on_message
|
113 |
async def main(message: cl.Message):
|
|
|
49 |
]
|
50 |
|
51 |
@cl.on_chat_start
|
52 |
+
async def on_chat_start():
|
53 |
await cl.Message(f"> REVIEWSTREAM").send()
|
54 |
await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
|
55 |
listPrompts_name = f"Liste des revues de recherche"
|
|
|
73 |
]
|
74 |
).send()
|
75 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
76 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
77 |
|
78 |
@cl.on_message
|
79 |
async def main(message: cl.Message):
|