2026年のAI現状:LLM、コーディング、スケーリング則、中国、エージェント、GPU、AGI | Lex Fridman Podcast #490
Nathan LambertとSebastian Raschkaは、中国のオープンウェイトモデルが米国の影響力を戦略的に侵食しつつあると論じ、Claude Opus 4.5と推論時スケーリングが2026年のフロンティアを定義すると指摘する。
- DeepSeek R1(2025年1月)が中国製オープンウェイトモデルの波を引き起こし、Z.AI、Minimax、Kimi MoonshotはいまやDeepSeek自身の地位にも挑戦しつつある。
- 中国のラボがオープンウェイトモデルを公開するのは、セキュリティ上の懸念から米国企業が中国製APIサブスクリプションに対価を払わないためだ――オープンウェイトは米国のAI支出への影響力を確保する手段になっている。
- Cursorは実際のユーザーフィードバックを使って90分ごとにcomposerモデルのウェイトを更新しており、両ゲストが知る限り最もライブに近い本番RLデプロイに近い。
- AI2はNSFから1億ドルの助成金(CS分野で過去最大規模)を獲得し、米国製オープンウェイトモデルの構築を進めている。LambertのAtom Projectは同じ方針を連邦政策レベルでも推進している。
- XAIは2026年初頭に1ギガワット、年末までに2ギガワットの計算資源を目標にしていると報じられており、2022〜2023年に締結されたデータセンター契約に基づくギガワット規模のBlackwellクラスターが稼働し始めている。
- スケーリング則は13桁もの計算量にわたって成立し続けており、Ai2で3.5週間のRLポストトレーニングを追加したところ、300億パラメータモデルに目に見える改善が見られた。
- 月額200ドルのAIサブスクリプションは、大型モデルと重い推論計算がより難しいタスクを解くようになるにつれ、2026年には2,000ドルへと10倍になる可能性がある。
- Meta Llama 4はベンチマーク操作と小型の実用モデルをスキップしたことで批判されており、Lambertはオープンウェイトのllama 5は出ないと見ている。
ゲスト: Nathan Lambert(Allen Institute for AI(Ai2)ポストトレーニング責任者、The RLHF Book著者)、Sebastian Raschka(Build a Large Language Model (From Scratch)およびBuild a Reasoning Model (From Scratch)著者) · 2026-01-31 · YouTubeで見る
英語版: State of AI in 2026: LLMs, Coding, Scaling Laws, China, Agents, GPUs, AGI | Lex Fridman Podcast #490 · Watch on YouTube