Qwen3.6-27B:27Bデンスモデルでフラッグシップ級のコーディング性能を実現

https://qwen.ai/blog?id=qwen3.6-27b

TL;DR

Qwenの新しい27Bデンスモデルは、Opus級のコーディング性能を謳いながら、24GB GPUシングル1枚で動作します。

Key Takeaways

  • Q4_K_M量子化で約16.8GBに収まり、M5 Proで25 tok/sで動作
  • ローカルモデルがフロンティアに肉薄:Gemma 4とQwen 3.6が状況を一変させた
  • VRAMの効率という点でデンスはMoEに勝る;FIMサポートの欠如は開発ツールにとって実質的な弱点

Discussion

トップコメント:

  • [simonw]:M5 Proで実行:25 tok/s、Opus 4.7のペリカンテストを上回った

    128GBのRAMを積んだM5 Proで動かしたが、実際に必要なのは約20GBだけ。32GBのマシンでも問題なく動くと思う。

  • [jedisct1]:一晩でセキュリティ監査:10件中8件のバグを発見、誤検知ゼロ
  • [jameson]:オープンモデルが一部のコストでほぼ同等の性能に近づく中、Anthropic/OpenAIの優位性(モート)は何か?
  • [2001zhaozhao]:小型モデルを24時間365日ローカルで動かせば、自律エージェントのワークフローを低コストで実現できる可能性がある

HN(Hacker News:技術者向けニュースコミュニティ)で議論を読む


原文(英語): Qwen3.6-27B: Flagship-Level Coding in a 27B Dense Model


Type Link
Added Apr 23, 2026
Modified Apr 23, 2026
comments 315
hn_id 47863217
score 628
target_url https://qwen.ai/blog?id=qwen3.6-27b