François Chollet: スケーリングだけではAGIに届かない理由

· ai coding · Source ↗

Summary based on the YouTube transcript and episode description.

François Cholletは、LLMのスケーリングだけでは真のAGIには到達できないと主張し、自身のラボNdeaがなぜ根本的に異なるシンボリック学習基盤を構築しているかを解説する。

  • CholletはAGIの実現を2030年〜2030年代初頭と予測しており、ARC v6またはv7がリリースされる頃になるという見立てだ。
  • Ndeaはニューラルネットのパラメトリック曲線を、可能な限り短いシンボリックプログラムで置き換えるアプローチを採り、勾配降下法の代わりに「シンボリック降下法」を用いる。
  • Cholletは自社の成功確率を10〜15%と見積もりつつも、「他に誰もやらないから挑む価値がある」と語る。
  • ARC v1では、ベースモデルが事前学習を5万倍スケールアップしても正解率は10%未満にとどまった。ベンチマークを突破したのは、OpenAI o1/o3のような推論特化モデルのみだった。
  • ARC v2はYC W26採択企業のConfluence Labsが約2か月でRLハーネスと検証可能な報酬ループを使い97%まで飽和させた。
  • ARC v3はエージェント知能を測る設計で、エージェントを説明なしで新規ミニゲームに投入し、人間の行動効率(数百〜数千アクション)との一致度でスコアを算出する。
  • Cholletは最終的なAGIのコードベースは1万行以下になると考えており、理論的には1980年代の計算資源でも構築できたはずだと述べる。
  • 検証可能な報酬が存在しない領域(エッセイ・法律など)ではLLMの進歩は極めて遅いか停滞するとみており、コードと数学は引き続き急速な発展が続くとしている。

2026-03-27 · YouTubeで視聴


英語版: François Chollet: Why Scaling Alone Isn’t Enough for AGI · Watch on YouTube