Update main.py
Browse files
main.py
CHANGED
@@ -26,26 +26,6 @@ from deep_translator import GoogleTranslator
|
|
26 |
|
27 |
from datetime import timedelta
|
28 |
|
29 |
-
from literalai import AsyncLiteralClient
|
30 |
-
async_literal_client = AsyncLiteralClient(api_key=os.getenv("LITERAL_API_KEY"))
|
31 |
-
|
32 |
-
@cl.password_auth_callback
|
33 |
-
def auth_callback(username: str, password: str):
|
34 |
-
auth = json.loads(os.environ['CHAINLIT_AUTH_LOGIN'])
|
35 |
-
ident = next(d['ident'] for d in auth if d['ident'] == username)
|
36 |
-
pwd = next(d['pwd'] for d in auth if d['ident'] == username)
|
37 |
-
resultLogAdmin = bcrypt.checkpw(username.encode('utf-8'), bcrypt.hashpw(ident.encode('utf-8'), bcrypt.gensalt()))
|
38 |
-
resultPwdAdmin = bcrypt.checkpw(password.encode('utf-8'), bcrypt.hashpw(pwd.encode('utf-8'), bcrypt.gensalt()))
|
39 |
-
resultRole = next(d['role'] for d in auth if d['ident'] == username)
|
40 |
-
if resultLogAdmin and resultPwdAdmin and resultRole == "admindatapcc":
|
41 |
-
return cl.User(
|
42 |
-
identifier=ident + " : 🧑💼 Admin Datapcc", metadata={"role": "admin", "provider": "credentials"}
|
43 |
-
)
|
44 |
-
elif resultLogAdmin and resultPwdAdmin and resultRole == "userdatapcc":
|
45 |
-
return cl.User(
|
46 |
-
identifier=ident + " : 🧑🎓 User Datapcc", metadata={"role": "user", "provider": "credentials"}
|
47 |
-
)
|
48 |
-
|
49 |
@cl.step(type="tool")
|
50 |
async def LLModel():
|
51 |
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
|
@@ -233,10 +213,9 @@ async def on_message(message: cl.Message):
|
|
233 |
cl.Text(name="Sources", content=sources_text, display="inline")
|
234 |
)
|
235 |
|
236 |
-
|
237 |
-
|
238 |
-
|
239 |
-
answer = results["answer"]
|
240 |
|
241 |
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|
242 |
|
|
|
26 |
|
27 |
from datetime import timedelta
|
28 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
29 |
@cl.step(type="tool")
|
30 |
async def LLModel():
|
31 |
os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN']
|
|
|
213 |
cl.Text(name="Sources", content=sources_text, display="inline")
|
214 |
)
|
215 |
|
216 |
+
cb = cl.AsyncLangchainCallbackHandler()
|
217 |
+
results = await runnable.acall("Contexte : Vous êtes un chercheur de l'enseignement supérieur et vous êtes doué pour faire des analyses d'articles de recherche sur les thématiques liées à la pédagogie, en fonction des critères définis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, répondez en langue française strictement à la question ci-dessous, en 5000 mots minimum. En plus, tu créeras et tu afficheras, à la fin de ta réponse, 3 questions supplémentaires en relation avec le contexte initial, à chaque étape de la conversation. Tu écriras et tu afficheras les 3 questions supplémentaires en relation avec le contexte initial, à la fin de ta réponse, avec un titrage de niveau 1 qui a pour titre \"Questions en relation avec le contexte : \". Lorsque cela est possible, cite les sources du contexte. Si vous ne pouvez pas répondre à la question sur la base des informations, dites que vous ne trouvez pas de réponse ou que vous ne parvenez pas à trouver de réponse. Essayez donc de comprendre en profondeur le contexte et répondez uniquement en vous basant sur les informations fournies. Ne générez pas de réponses non pertinentes. Question : " + message.content, callbacks=[cb])
|
218 |
+
answer = results["answer"]
|
|
|
219 |
|
220 |
await cl.Message(content=GoogleTranslator(source='auto', target='fr').translate(answer)).send()
|
221 |
|