内省的拡散言語モデル
概要
- **Introspective Diffusion Language Model (I-DLM)**は、拡散型言語モデルの並列生成の利点と、自己回帰型(AR)モデルの品質を両立
- I-DLM-8Bは、同規模のARモデルと同等の品質を実現し、LLaDA-2.1-miniより高スループット
- **Introspective Strided Decoding (ISD)**により、トークン生成と検証を同時に実行
- LoRAアダプタにより、損失なしでARモデルとビット単位で同一出力を保証
- SGLangとの互換性により、既存インフラでの導入が容易
Introspective Diffusion Language Model (I-DLM) の概要
- **拡散型言語モデル(DLM)**は並列トークン生成による高速化が可能
- 従来のDLMは自己回帰型(AR)モデルに品質で劣る課題
- I-DLMは「内省的一貫性(introspective consistency)」不足を解決
- **ISD(Introspective Strided Decoding)**で、生成済みトークンの検証と新規生成を同時実行
- I-DLM-8Bは、同規模ARモデルと同等の品質を達成し、LLaDA-2.1-mini(16B)よりAIME-24で+26、LiveCodeBench-v6で+15のスコア差
- スループットは2.9~4.1倍(バッチサイズ64時)
I-DLMの技術的特徴
- 内省的一貫性訓練
- 既存ARモデルを変換し、因果的アテンション・ロジットシフト・全マスク目的で訓練
- ISDによる並列デコーディング
- 1回のフォワードパスでNトークン生成+過去トークン検証(p/q受理基準)
- AR互換サービング
- SGLangに直接統合可能、カスタムインフラ不要
- 損失なし加速(R-ISD + LoRA)
- MASK位置のみLoRA適用、ARモデルとビット単位で同一出力
性能比較・ベンチマーク
- I-DLM-8Bは同規模ARモデルと同等品質、全15ベンチマークで従来DLMを上回る
- 知識・推論系:ARC-C、MMLU、MMLU-Pro、GPQA-D、GPQA
- 数学系:GSM8K、MATH-500、MathBench、AIME-24、AIME-25
- コード系:HumanEval、MBPP、LiveCodeBench-v6
- 命令追従:IFEval
- スループット:LLaDA-2.1-miniやSDARより2.9~4.1倍高速(C=64時)
I-DLMの効率性
- メモリバウンド時:TPF(Throughput per Forward)がARの2.5倍以上
- 計算効率:I-DLMは1FLOPあたりARより多くの有用出力生成
- バッチ効率:SDARやLLaDAは早期にスループットが頭打ち、I-DLMは高並列時も効率維持
導入・利用方法
- インストール
git clone https://github.com/Introspective-Diffusion/I-DLM.gitcd I-DLM/inferencebash install.sh
- サーバ起動例
python -m sglang.launch_server --model-path yifanyu/I-DLM-8B ...
- 推論例(curl)
curl http://localhost:30000/v1/chat/completions ...
- 訓練方法
- 事前学習済みARモデルを、全マスク+クリーン系列連結、因果マスク、自己バランスCEロスで訓練
- 8 H100 GPU、2エポック、4.5Bトークン
- ISD推論
- MASK位置で新規生成(分布q)、クリーン位置で検証(分布p)、min(1, p(x)/q(x))で受理
- N=4時、TPF=2.96、約3倍高速化
- SGLangサービング
- ページ化KVキャッシュ、連続バッチ、CUDAグラフキャプチャ等で最大2.5倍スループット
モデル・リソース一覧
- I-DLM-8B:Qwen3-8Bベース、AR品質
- I-DLM-32B:大規模モデル、LLaDA-2.1-flash(100B)を上回る
- I-DLM-8B-LoRA:損失なしR-ISD用LoRAアダプタ付
参考文献・リソース
- 論文:arXiv preprint arXiv:7471639 (2026年)
- GitHub: https://github.com/Introspective-Diffusion/I-DLM
- 評価スクリプト:inference/eval/ 配下
- 詳細ドキュメント:inference/README.md、training/README.md
© 2025 I-DLM Team