内省的拡散言語モデル

https://introspective-diffusion.github.io/

タイトル: Introspective Diffusion Language Models

記事

  • 自己回帰型LLM(Qwen)をdiffusionモデルに変換する新しいアプローチ
  • I-DLM-8B と I-DLM-32B を HuggingFace で公開(2025年4月)
  • ネイティブのdiffusionモデルを大幅に上回り、ベースの自己回帰モデルとも互角の性能

ディスカッション

  • コメント欄は盛り上がり:並列トークン生成による推論速度の大幅な向上が最大の注目点
  • 生成中の反復的な自己修正がdiffusionで可能かどうかを問う声も
  • Qwenの高速な代替としてそのまま使えるか、実用性についてはまだ不透明との意見も

HNでディスカッションを読む


原文(英語): Introspective Diffusion Language Models


Type Link
Added Apr 14, 2026
Modified Apr 15, 2026