File size: 1,196 Bytes
1afbeb8
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
# interpreter_config.py

import os
from interpreter import interpreter

# 環境変数でOpenAI APIキーを保存および使用
interpreter.auto_run = True
interpreter.llm.model = "huggingface/meta-llama/Meta-Llama-3-8B-Instruct"
interpreter.llm.api_key = os.getenv("hf_token")
interpreter.llm.api_base = "https://api.groq.com/openai/v1"
interpreter.llm.api_key = os.getenv("api_key")
interpreter.llm.model = "Llama3-70b-8192"

# interpreter.llm.fp16 = False  # 明示的にFP32を使用するように設定
# interpreter --conversations
# LLM設定の適用
interpreter.llm.context_window = 4096  # 一般的なLLMのコンテキストウィンドウサイズ
interpreter.context_window = 4096  # 一般的なLLMのコンテキストウィンドウサイズ

interpreter.llm.max_tokens = 3000  # 1回のリクエストで処理するトークンの最大数
interpreter.max_tokens = 3000  # 1回のリクエストで処理するトークンの最大数

interpreter.llm.max_output = 10000  # 出力の最大トークン数
interpreter.max_output = 10000  # 出力の最大トークン数

interpreter.conversation_history = True
interpreter.debug_mode = False
# interpreter.temperature = 0.7