File size: 2,036 Bytes
fb4f291
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7472c5c
fb4f291
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
---
license: apache-2.0
---
# RWKV-x060-14B-CoT

## モデル概要

このモデルは、RWKV-x060-14B-JPNをベースに、Chain-of-Thought推論能力の強化を目指してファインチューニングを行ったモデルです。

## スペック

- **アーキテクチャ**: RWKV x060 Finch
- **モデル構造**: 61層 4096次元
- **パラメータ数**: 14B(140億パラメータ)
- **最大コンテキスト長**: 32k
- **ベースモデル**: RWKV-x060-14B-JPN

## トレーニング詳細

- **手法**: Bone法(Block Affine Transformation)によるPEFTトレーニング
  - Block Size: 256
  - モデル形態: アダプターのみ
- **トレーニング特徴**:
  - RWKV-LM-RLHFのLoss SmoothingとSFT、BPTTを組み合わせた32kコンテキストトレーニング
  - Chain-of-Thought推論強化のための特殊データセット使用

## データセット

- **サイズ**: 100kペア
- **内容**:
  - 日本語・英語の混合データ
  - 会話
  - プログラミングコード
  - 翻訳タスク
  - Chain-of-Thought推論タスク

## 使用方法

以下のいずれかの方法で利用可能です:

1. RWKV-LM-RLHFレポジトリを使用してBoneマージを実行
2. 最新のRWKV-Inferを使用して動的マージ推論を実行
3. エンドトークンを'\n\n\x17'としてください。デフォルトの'\n\n'では生成が不安定になります

## 制限事項・注意点

- 実験的なモデルのため、推論の安定性が完全には保証されていません
- 予期せぬ挙動が発生する可能性があります
- 継続的な改善を行っているため、フィードバックを歓迎します

## ライセンス

Apache License 2.0

## 謝辞

このモデルの開発にあたり、RWKV-x060-14B-JPNベースモデル、RWKVコミュニティの支援に感謝いたします。

---

このモデルに関する質問やフィードバックは、Issues機能をご利用ください。
この文章はRWKV-x060-14B-CoTで生成しました。