--- license: apache-2.0 --- # RWKV-x060-14B-CoT ## モデル概要 このモデルは、RWKV-x060-14B-JPNをベースに、Chain-of-Thought推論能力の強化を目指してファインチューニングを行ったモデルです。 ## スペック - **アーキテクチャ**: RWKV x060 Finch - **モデル構造**: 61層 4096次元 - **パラメータ数**: 14B(140億パラメータ) - **最大コンテキスト長**: 32k - **ベースモデル**: RWKV-x060-14B-JPN ## トレーニング詳細 - **手法**: Bone法(Block Affine Transformation)によるPEFTトレーニング - Block Size: 256 - モデル形態: アダプターのみ - **トレーニング特徴**: - RWKV-LM-RLHFのLoss SmoothingとSFT、BPTTを組み合わせた32kコンテキストトレーニング - Chain-of-Thought推論強化のための特殊データセット使用 ## データセット - **サイズ**: 100kペア - **内容**: - 日本語・英語の混合データ - 会話 - プログラミングコード - 翻訳タスク - Chain-of-Thought推論タスク ## 使用方法 以下のいずれかの方法で利用可能です: 1. RWKV-LM-RLHFレポジトリを使用してBoneマージを実行 2. 最新のRWKV-Inferを使用して動的マージ推論を実行 3. エンドトークンを'\n\n\x17'としてください。デフォルトの'\n\n'では生成が不安定になります ## 制限事項・注意点 - 実験的なモデルのため、推論の安定性が完全には保証されていません - 予期せぬ挙動が発生する可能性があります - 継続的な改善を行っているため、フィードバックを歓迎します ## ライセンス Apache License 2.0 ## 謝辞 このモデルの開発にあたり、RWKV-x060-14B-JPNベースモデル、RWKVコミュニティの支援に感謝いたします。 --- このモデルに関する質問やフィードバックは、Issues機能をご利用ください。 この文章はRWKV-x060-14B-CoTで生成しました。