François Chollet:スケーリングだけではAGIに届かない理由

· media · Source ↗

Summary based on the YouTube transcript and episode description.

François Chollet は、LLM のスケーリングだけでは真の AGI には到達できないと主張し、自身のラボ Ndea が根本的に異なる symbolic learning 基盤を構築している理由を語る。

  • Chollet は AGI の実現を 2030〜2030年代前半と予測しており、ARC v6 か v7 がリリースされる頃と見ている。
  • Ndea はニューラルネットのパラメトリック曲線を「最短の symbolic プログラム」に置き換え、gradient descent の代わりに「symbolic descent」を用いる。
  • Chollet は Ndea の成功確率を 10〜15% と見積もりつつも、他に誰もやらないから挑む価値があると言い切る。
  • ARC v1 では、事前学習を 50,000 倍スケールアップしてもベースモデルのスコアは 10% 未満にとどまり、OpenAI o1/o3 のような reasoning モデルだけがベンチマークを突破した。
  • ARC v2 は YC W26 の Confluence Labs が RL ハーネスと検証可能な報酬ループを使い、約 2 ヶ月で 97% のスコアを達成して事実上飽和した。
  • ARC v3 が測るのは agentic intelligence だ。エージェントは説明なしに未知のミニゲームに投入され、人間と同等の行動効率(数百〜数千アクション)でスコアが評価される。
  • Chollet は、最終的な AGI のコードベースは 10,000 行以下になると考えており、理論上は 1980 年代の計算資源でも構築可能だったと述べる。
  • 検証可能な報酬が存在しないドメイン(エッセイ、法律など)では LLM の進歩は極めて遅いか停滞する。コードと数学は引き続き急速な進化が続く。

2026-03-27 · YouTube で視聴する


英語版: François Chollet: Why Scaling Alone Isn’t Enough for AGI · Watch on YouTube