Spaces:
Running
Running
Update main.py
Browse files
main.py
CHANGED
@@ -701,9 +701,12 @@ async def construction_NCS(romeListArray):
|
|
701 |
"""
|
702 |
context_p = f"Contexte : {context}. {definitions} Modèle de note sectorielle : {structure}. Réponds en langue française strictement à la question suivante en respectant strictement les données du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Si les informations du contexte sont insuffisantes, procédez à une projection sur le secteur, les entreprises et le marché de l'emploi, pour construire la note de composante sectorielle."
|
703 |
prompt = PromptTemplate(template=template, input_variables=["question","context"])
|
704 |
-
llm_chain = LLMChain(prompt=prompt, llm=client_llm)
|
705 |
-
completion_NCS = llm_chain.run({"question":question_p,"context":context_p}, callbacks=[StreamingStdOutCallbackHandler()])
|
706 |
-
|
|
|
|
|
|
|
707 |
#completion_NCS = client_anthropic.messages.create(
|
708 |
# model="claude-3-opus-20240229",
|
709 |
# max_tokens=4000,
|
@@ -992,10 +995,6 @@ async def setup_agent(settings):
|
|
992 |
streaming=True
|
993 |
)
|
994 |
|
995 |
-
#model = ChatAnthropic(
|
996 |
-
# temperature=1,
|
997 |
-
# model_name="claude-3-opus-20240229"
|
998 |
-
#)
|
999 |
memory = cl.user_session.get("memory")
|
1000 |
prompt = ChatPromptTemplate.from_messages(
|
1001 |
[
|
@@ -1013,7 +1012,6 @@ async def setup_agent(settings):
|
|
1013 |
)
|
1014 |
| prompt
|
1015 |
| model
|
1016 |
-
| StrOutputParser()
|
1017 |
)
|
1018 |
cl.user_session.set("runnable", runnable)
|
1019 |
|
@@ -1028,11 +1026,7 @@ async def main(message: cl.Message):
|
|
1028 |
msg = cl.Message(author="Datapcc : 🌐🌐🌐",content="")
|
1029 |
text_elements = []
|
1030 |
answer = []
|
1031 |
-
async for chunk in runnable.
|
1032 |
-
{"question": message.content},
|
1033 |
-
config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)]),
|
1034 |
-
#config=RunnableConfig(callbacks=[cl.LangchainCallbackHandler()]),
|
1035 |
-
):
|
1036 |
await parent_step.stream_token(chunk)
|
1037 |
await msg.stream_token(chunk)
|
1038 |
|
|
|
701 |
"""
|
702 |
context_p = f"Contexte : {context}. {definitions} Modèle de note sectorielle : {structure}. Réponds en langue française strictement à la question suivante en respectant strictement les données du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Si les informations du contexte sont insuffisantes, procédez à une projection sur le secteur, les entreprises et le marché de l'emploi, pour construire la note de composante sectorielle."
|
703 |
prompt = PromptTemplate(template=template, input_variables=["question","context"])
|
704 |
+
#llm_chain = LLMChain(prompt=prompt, llm=client_llm)
|
705 |
+
#completion_NCS = llm_chain.run({"question":question_p,"context":context_p}, callbacks=[StreamingStdOutCallbackHandler()])
|
706 |
+
chain = prompt | client_llm
|
707 |
+
completion_NCS = chain.invoke({"question":question_p,"context":context_p})
|
708 |
+
#for s in chain.stream({"question":question_p,"context":context_p}):
|
709 |
+
# print(s, end="", flush=True)
|
710 |
#completion_NCS = client_anthropic.messages.create(
|
711 |
# model="claude-3-opus-20240229",
|
712 |
# max_tokens=4000,
|
|
|
995 |
streaming=True
|
996 |
)
|
997 |
|
|
|
|
|
|
|
|
|
998 |
memory = cl.user_session.get("memory")
|
999 |
prompt = ChatPromptTemplate.from_messages(
|
1000 |
[
|
|
|
1012 |
)
|
1013 |
| prompt
|
1014 |
| model
|
|
|
1015 |
)
|
1016 |
cl.user_session.set("runnable", runnable)
|
1017 |
|
|
|
1026 |
msg = cl.Message(author="Datapcc : 🌐🌐🌐",content="")
|
1027 |
text_elements = []
|
1028 |
answer = []
|
1029 |
+
async for chunk in runnable.astream({"question": message.content}):
|
|
|
|
|
|
|
|
|
1030 |
await parent_step.stream_token(chunk)
|
1031 |
await msg.stream_token(chunk)
|
1032 |
|