抽象化の誤謬:AIは意識をシミュレートできても実体化できない理由
要約
- 本論文は、計算機能主義が「抽象化の誤謬」を犯していると主張する。記号計算を物理に内在するものではなく、観察者依存の記述として扱っているという問題だ。
主なポイント
- PhilArchive掲載(2026年3月)の本論文は、シミュレーション(媒体因果性・行動模倣)と実体化(内容因果性・物理的構成)を明確に区別する。
- 記号計算は連続的な物理を有限の状態に離散化する外部の経験主体を必要とし、自己根拠的ではない。
- アルゴリズムによる記号操作は、生物か silicon かを問わず、構造的に経験を実体化することができない。
- 意識を持つ人工システムには特定の物理的構成が必要であり、構文的なアーキテクチャでは不十分。ただしこれは生物排他論ではない。
- 意識の完全な理論を待たずとも、計算の存在論を明確にすることでAIの感性を今すぐ評価できると論文は主張する。
Hacker Newsコメントのまとめ
- 多くのコメンターは論文を難解と感じ、技術的な語彙で哲学的直感を言い換えているだけで、具体的な論理構造が見えにくいと指摘した。
- 鋭い批判として:抄録が「能動的な経験を持つ認知エージェント」を意識の条件とする点は、連続的な感覚入力とエージェント性を持つ体現型AIを支持する論拠になり得る――論文自身のAI否定的な立場と矛盾する。
- 懐疑派は、議論が人間の意識に関する事前知識を前提としているため、根本的な循環論法が残ると指摘した。
注目コメント
- @jstanley: 「難解な言葉を大量に使って、実際には論理的な議論ではなく哲学的意見であることを隠している」
- @aaroninsf: 抄録が「表題の主張を直接かつ文字通り否定している」と指摘し、連続入力による世界モデルAIこそが論文が意図せず示す真の方向性だと論じる。
英語版: The Abstraction Fallacy: Why AI can simulate but not instantiate consciousness · Original source