抽象化の誤謬:AIは意識をシミュレートできても実体化できない理由
https://deepmind.google/research/publications/231971/記事
- DeepMindの論文は、AIが意識をシミュレートすることはできても、実体化することは決してできないと主張しています。
- 議論の根拠は情報処理だけでなく、生物学的・熱力学的な基盤に置いています。
- SearleのChineseRoom(構文だけでは意味論を生み出せないという思考実験)を引用しています。
- 身体を持ち、代謝によって構成されたシステムだけが主観的な経験の前提条件だと主張しています。
ディスカッション
- HofstadterのStrange Loop理論が、より直感的な反論のフレームワークとして引用されています。
- 熱力学的基盤の前提は根拠が薄いという意見も多く、「状態は複製可能だ」という反論が出ています。
- 4つの立場が識別されています:無反省な肯定派、無反省な否定派、知識のある懐疑論者、知識のある不可知論者。
- DennettとHofstadterがChinese Roomへの反論として引用され、一部のコメンターはSearleの議論を詭弁と見なしています。
原文(英語): The Abstraction Fallacy: Why AI Can Simulate but Not Instantiate Consciousness
| Type | Link |
| Added | Apr 21, 2026 |
| Modified | Apr 21, 2026 |