Qwen3.6-27B:27Bデンスモデルでフラッグシップ級のコーディング性能を実現
https://qwen.ai/blog?id=qwen3.6-27bTL;DR
Qwenの新しい27Bデンスモデルは、Opus級のコーディング性能を謳いながら、24GB GPUシングル1枚で動作します。
Key Takeaways
- Q4_K_M量子化で約16.8GBに収まり、M5 Proで25 tok/sで動作
- ローカルモデルがフロンティアに肉薄:Gemma 4とQwen 3.6が状況を一変させた
- VRAMの効率という点でデンスはMoEに勝る;FIMサポートの欠如は開発ツールにとって実質的な弱点
Discussion
トップコメント:
-
[simonw]:M5 Proで実行:25 tok/s、Opus 4.7のペリカンテストを上回った
128GBのRAMを積んだM5 Proで動かしたが、実際に必要なのは約20GBだけ。32GBのマシンでも問題なく動くと思う。
- [jedisct1]:一晩でセキュリティ監査:10件中8件のバグを発見、誤検知ゼロ
- [jameson]:オープンモデルが一部のコストでほぼ同等の性能に近づく中、Anthropic/OpenAIの優位性(モート)は何か?
- [2001zhaozhao]:小型モデルを24時間365日ローカルで動かせば、自律エージェントのワークフローを低コストで実現できる可能性がある
HN(Hacker News:技術者向けニュースコミュニティ)で議論を読む
原文(英語): Qwen3.6-27B: Flagship-Level Coding in a 27B Dense Model
| Type | Link |
| Added | Apr 23, 2026 |
| Modified | Apr 23, 2026 |
| comments | 315 |
| hn_id | 47863217 |
| score | 628 |
| target_url | https://qwen.ai/blog?id=qwen3.6-27b |