Tifa-Deepsex-14b-CoTは、Deepseek-R1-14Bアーキテクチャに基づいて深く最適化された専用の大規模言語モデルであり、多段階学習と128k超長文脈サポート技術によって2つのコアブレイクスルーを実現しています:
- ロールプレイング強化671BパラメータRL報酬アルゴリズムを採用し、オリジナルモデルの対話キャラクターが合わないという欠点を解決。10Kの手動アノテーション+100Kの生成SFTデータを融合することで、キャラクター設定にマッチした台詞を正確に複数回生成できる。
- ロングフォーム世代の最適化0.4Tの新規コーパスの事前学習と重複防止DPO機構の導入により、20万語以上のテキストで52%の一貫性向上、98%の中英取り違え訂正精度を実現。
このモデルは、F16/Q8/Q4の3つの定量化バージョンで利用可能で、RTX4090グラフィックカードで毎秒18トークンの推論速度を達成しており、商用レベルで適用可能な数少ない長文オーサリングモデルの一つとなっている。
この答えは記事から得たものである。Tifa-Deepsex-14b-CoT:ロールプレイングと超長編小説の生成に特化した大型モデル。について































