ohtaman commited on
Commit
2f33103
1 Parent(s): da1bd1d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -3
README.md CHANGED
@@ -16,8 +16,10 @@ license: apache-2.0
16
  This model learned the proceedings of the Japanese parliament in 2022.
17
  The [dataset](https://huggingface.co/datasets/ohtaman/kokkai2022) is collected using
18
  [National Diet Library's Search API](https://kokkai.ndl.go.jp/api.html).
 
 
19
 
20
- example input:
21
 
22
  ```
23
  # question
@@ -28,7 +30,7 @@ example input:
28
  鈴木 俊一
29
  ```
30
 
31
- output:
32
 
33
  ```
34
  「財政民主主義」のためには、国庫負担を引き下げるならば、企業の賃上げを実現するためにも、消費者物価の高騰対策等を含めて、経済対策を行い、成長と分配の好循環を実珉化することが重要でございます。
@@ -82,7 +84,7 @@ base_model = transformers.AutoModelForCausalLM.from_pretrained(base_model_name,
82
  peft_model = peft.PeftModelForCausalLM.from_pretrained(base_model, peft_model_name, torch_dtype=torch.bfloat16)
83
 
84
 
85
- prompt = "# question\n麻生太郎\n\n増税すべきとお考えか?\n# answer\n岸田文雄\n\n〔内閣総理大臣岸田文雄君登壇〕"
86
  input_tokens = tokenizer(prompt, return_tensors="pt").to(peft_model.device)
87
  input_length = input_tokens.input_ids.shape[1]
88
 
 
16
  This model learned the proceedings of the Japanese parliament in 2022.
17
  The [dataset](https://huggingface.co/datasets/ohtaman/kokkai2022) is collected using
18
  [National Diet Library's Search API](https://kokkai.ndl.go.jp/api.html).
19
+ This model was build for a hackerthon event, [
20
+ 第1回大規模言語モデル分散学習ハッカソン](https://abci.ai/event/2023/06/13/ja_event.html) ([#ABCILLM](https://twitter.com/hashtag/ABCILLM)), as an example of training which used multiple GPUs or multiple nodes.
21
 
22
+ An example input is as follows:
23
 
24
  ```
25
  # question
 
30
  鈴木 俊一
31
  ```
32
 
33
+ and the respons is:
34
 
35
  ```
36
  「財政民主主義」のためには、国庫負担を引き下げるならば、企業の賃上げを実現するためにも、消費者物価の高騰対策等を含めて、経済対策を行い、成長と分配の好循環を実珉化することが重要でございます。
 
84
  peft_model = peft.PeftModelForCausalLM.from_pretrained(base_model, peft_model_name, torch_dtype=torch.bfloat16)
85
 
86
 
87
+ prompt = "# question\n麻生太郎\n\n増税が必要とお考えでしょうか?\n# answer\n鈴木 俊一\n\n"
88
  input_tokens = tokenizer(prompt, return_tensors="pt").to(peft_model.device)
89
  input_length = input_tokens.input_ids.shape[1]
90