datacipen commited on
Commit
cd53515
1 Parent(s): b986d7f

Update main.py

Browse files
Files changed (1) hide show
  1. main.py +1 -35
main.py CHANGED
@@ -49,7 +49,7 @@ async def chat_profile():
49
  ]
50
 
51
  @cl.on_chat_start
52
- async def start():
53
  await cl.Message(f"> REVIEWSTREAM").send()
54
  await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
55
  listPrompts_name = f"Liste des revues de recherche"
@@ -73,41 +73,7 @@ async def start():
73
  ]
74
  ).send()
75
 
76
- cl.user_session.set("memory", ConversationBufferMemory(return_messages=True))
77
- memory = cl.user_session.get("memory")
78
- template = """<s>[INST] Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant.
79
-
80
- En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous à partir du contexte ci-dessous. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes.
81
- {context}
82
- {question} [/INST] </s>
83
- """
84
-
85
- os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
86
- repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1"
87
-
88
- model = HuggingFaceEndpoint(
89
- repo_id=repo_id, max_new_tokens=8000, temperature=1.0, task="text2text-generation", streaming=True
90
- )
91
 
92
- prompt = ChatPromptTemplate.from_messages(
93
- [
94
- (
95
- "system",
96
- f"Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie. En fonction des informations suivantes et du contexte suivant seulement et strictement.",
97
- ),
98
- MessagesPlaceholder(variable_name="history"),
99
- ("human", "Contexte : {context}, réponds à la question suivante de la manière la plus pertinente, la plus exhaustive et la plus détaillée possible. {question}."),
100
- ]
101
- )
102
- runnable = (
103
- RunnablePassthrough.assign(
104
- history=RunnableLambda(memory.load_memory_variables) | itemgetter("history")
105
- )
106
- | prompt
107
- | model
108
- )
109
- cl.user_session.set("runnable", runnable)
110
- return runnable
111
 
112
  @cl.on_message
113
  async def main(message: cl.Message):
 
49
  ]
50
 
51
  @cl.on_chat_start
52
+ async def on_chat_start():
53
  await cl.Message(f"> REVIEWSTREAM").send()
54
  await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send()
55
  listPrompts_name = f"Liste des revues de recherche"
 
73
  ]
74
  ).send()
75
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
76
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
77
 
78
  @cl.on_message
79
  async def main(message: cl.Message):