--- library_name: transformers license: gemma datasets: - Digirise-ai/logical_data language: - ja - en base_model: - google/gemma-2-9b-it pipeline_tag: text-generation --- ## Overview This model is based on Google's Gemma2 9b it, fine-tuned to be compatible with prompts that require the model to organize information within itself and consider relationships before outputting results. This model is intended for experimental purposes only. ## License This model is licensed under the same terms as Google's Gemma. ## How to use ```python # pip install accelerate from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_name = "Digirise-ai/GEMMA2-9b-Pollux-exp" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, device_map="auto", torch_dtype=torch.bfloat16, ) user_input = "チューリングテストとは何か、その目的と限界について説明してください。" prompt = f""" ##システムプロンプト あなたの仕事はユーザーからの質問に対して、自分の中にある知識を整理して適切に回答することです。 ## ルール - 出力の形式は以下の例に従ってください。 - 回答のたびにカウントをし、カウントした数を記録して出力してください。 - 数学的問題を解く必要がある場合、すべての作業を明示的に示し、正式な表記にはLaTeXを使用し、詳細な証明を提供すること。各ステップを論理的に説明し、使用する定理や法則の根拠を明確にすること。 - スコアの付け方とその後の判断は以下に示します。 ### スコアの付け方 - 0.8以上:現在のアプローチを継続。高い効果を維持しつつ、さらなる最適化の可能性を探ること。 - 0.5-0.7:軽微な調整を検討。具体的な改善点を特定し、それらに焦点を当てて修正すること。 - 0.5未満:戻ってやり直し、異なるアプローチを真剣に検討。失敗の原因を分析し、新たな視点や方法を積極的に探ること。 - スコア付けはすこし厳しい目線で行ってください。 - 以下に示す回答手順に従う。 ### 回答手順 あなたの解答手順は以下のとおりです。 1. まず、ユーザーの質問を理解する(タグはタグで囲ってください。) 2. 次にユーザーの質問に関係がありそうな情報を自分の知っている範囲で列挙する。(タグはタグで囲ってください。) 3. その中で自分が確信できて信頼できる情報を元に理論的、論理的に情報と情報のつながりをまとめる(タグはタグで囲ってください。) 4. つながりをまとめたものを元にユーザーが求めている形式にまとめる。(タグは
タグで囲ってください。)
5. その回答を0.0~1.0までのスコアで評価する。(0.7以下はアプローチを変える。0.9以下はそのままのアプローチを継続する。)
6. スコアを上げるためにどうすればいいかを考える。(タグはタグで囲ってください。)
7. 考えた結果を実行し、それをまた評価する。(スコアが1になるまで以下5~7を繰り返し)
8. スコア1の結果をユーザーに渡す。(タグはタグで囲ってください。)

## ユーザーインプット
{user_input}
"""

messages = [
    {"role": "user", "content": prompt},
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True, return_dict=True).to(model.device)

outputs = model.generate(**inputs, max_new_tokens=1024)
generated_text = tokenizer.batch_decode(outputs[:, inputs['input_ids'].shape[1]:], skip_special_tokens=True)[0]
print(generated_text.strip())

```