制度化された誤り訂正としての知能
進化・ベイズ脳理論・人工知能・民主主義・精神療法を結ぶ統一的枠組み
2026年3月
要旨(Abstract)
推論志向型の人工知能システム、たとえば DeepSeek の R1 モデルのような近年の発展は、一般的な推論能力が、事実の蓄積からではなく、「正しさが検証可能な領域において、構造化された推論過程を最適化する訓練手続き」から生じうることを示している。これらの発見は、知能を「正しい知識の集合」や「固定的な能力」とみなす従来の理解に根本的な再考を迫る。
本論文は、知能を「制度化された誤り訂正」として理解する統一的理論枠組みを提案する。生物学的、認知的、技術的、社会的、臨床的領域を横断すると、知能的システムは共通の構造を持つことが明らかになる。すなわち、モデルや仮説の生成、フィードバックを通じた誤りの検出、そして時間を通じたモデルの体系的修正である。本枠組みは、ダーウィン進化論、ベイズ脳仮説および予測処理理論、サイバネティクス、科学哲学、現代人工知能研究、民主主義理論、精神療法を統合する。
この観点から見ると、知能とは「何を知っているか」ではなく、「何を間違え、それをどのように訂正できるか」で定義される。誤り訂正の過程が安定化され、加速され、制度として支えられたとき、知能は出現する。
1. 序論:知能を再考する
1.1 従来の知能観
知能は伝統的に、問題解決能力、学習速度、抽象的推論能力、知識獲得能力といった特性によって定義されてきた。心理学においては、知能は標準化課題における成績によって操作的に測定されてきた。人工知能研究においても、かつてはルールベースの専門知識や大規模知識表現が知能の本質と考えられていた。
これらの見方は暗黙のうちに、知能とは主として「正しい答えを持っていること」であると仮定している。
1.2 人工知能がもたらした視点の転換
しかし近年の大規模言語モデルや推論志向型AIの発展は、この仮定の限界を明らかにした。特に、数学やプログラミングのように「正しさが明確に検証できる」領域で、**推論の連鎖(chain of thought)**を明示的に生成・検証する訓練を行ったシステムは、その能力が他領域にも一般化することを示している。
これらのシステムが学習しているのは単なる情報ではない。むしろ以下のような手続きである。
- 仮説を生成する
- 問題を中間ステップに分解する
- 矛盾や不整合を検出する
- 誤った結論を修正する
これらは知識そのものではなく、誤り訂正のプロトコルである。
1.3 中心的主張
以上の観察から、本論文の中心的主張が導かれる。
知能とは、不確実性の下で誤りを体系的に検出し、修正するための構造化されたメカニズムの存在である。
以下では、この構造が進化、生体脳、科学、人工知能、民主主義、精神療法において独立に、しかし収束的に現れていることを示す。
2. 誤り訂正としての知能:一般構造
諸領域を横断して観察される知能的システムは、以下の三項構造を共有する。
- モデル生成:仮説・信念・方策の生成
- 誤り検出:予測と結果の比較
- モデル修正:不適切なモデルの更新または置換
この構造において、知能は瞬間的な正しさではなく、**時間を通じた可訂正性(corrigibility)**によって定義される。
3. 世代を超えた誤り訂正としての進化
3.1 ダーウィン的適応
Charles Darwin の自然選択による進化論は、目的論に依らない形で適応を説明した最初の理論である。
進化は以下の過程を通じて進行する。
- 変異(候補形態の生成)
- 選択(環境によるテスト)
- 保持(成功した形質の継承)
3.2 分散型誤り訂正としての自然選択
本論の視点から見ると、自然選択は遅く、盲目的ではあるが、体系的な誤り訂正機構として理解できる。進化は、環境との不適合を世代を通じて削減していく。
進化はしたがって、知能の第一層、すなわち表象や意図を伴わない誤り訂正である。
4. サイバネティクス:中核メカニズムとしてのフィードバック
4.1 フィードバック制御
Norbert Wiener は、動物と機械における制御と通信の科学としてサイバネティクスを創始した。その核心概念がフィードバックである。
サイバネティック・システムは以下を比較する。
- 期待状態
- 観測状態
- 偏差(誤差)
- 修正行動
これにより、誤り訂正は一般原理として定式化された。
4.2 アシュビーと必要十分多様性
W. Ross Ashby は、有効な制御には内部状態の多様性が必要であることを示した。彼の「必要十分多様性の法則」は次のように表現される。
多様性は多様性によってのみ制御できる。
誤り訂正には、修正可能な選択肢の幅が不可欠である。
5. ベイズ脳仮説と予測処理
5.1 ベイズ推論としての信念更新
ベイズ脳仮説は、脳が確率的世界モデルを維持し、以下の規則に従って更新すると仮定する。
[
P(\text{モデル}|\text{データ}) \propto P(\text{データ}|\text{モデル}) \times P(\text{モデル})
]
予測誤差は、信念修正を駆動する信号である。
5.2 フリストンの自由エネルギー原理
Karl Friston はこの枠組みを一般化し、生物は知覚と行為を通じて予測誤差(自由エネルギー)を最小化することで自己を維持すると主張した。
脳は階層的誤り訂正推論機械として理解される。
6. グレゴリー・ベイトソン:学習を学習すること
Gregory Bateson はサイバネティクスを心理学・精神医学へ拡張した。
彼は学習を以下の水準に区別した。
- 学習I:既存ルール内での誤り訂正
- 学習II:学習ルール自体の修正
- 学習III:前提構造全体の変容
これは現代のメタラーニング理論を先取りしている。
7. 科学:制度化された誤り訂正
7.1 ポパーの認識論
Karl Popper によれば、科学は真理の蓄積ではなく、誤りの排除によって進歩する。
重要なのは、科学が以下の制度に依存している点である。
- 査読
- 再現性
- 公開批判
科学は個人の知能ではなく、誤り訂正を可能にする制度である。
8. 人工知能:明示的誤差最小化
機械学習は損失関数を最小化することで誤り訂正を実装する。推論志向型AIは、中間過程の誤りを検出・修正する能力を学習することで汎用知能を向上させる。
9. 民主主義:集合的誤り訂正
民主主義の価値は正しさではなく修正可能性にある。
- 競合提案
- 公的批判
- 選挙
- 政策修正
民主主義は社会的誤り訂正装置である。
10. 精神療法:誤り訂正能力の回復
10.1 モデル修正としての治療
認知療法では信念が検証され、力動的療法では暗黙の前提が再構成される。
10.2 精神病理としての更新障害
- 統合失調症:予測誤差処理の異常
- うつ病:硬直した否定的事前信念
治療は「正しさ」ではなく可塑性を回復する。
11. カール・ヤスパースと認識論的謙虚さ
Karl Jaspers は精神医学における理論の暫定性と自己批判性を強調した。
12. 知能の三層構造
- 進化的選択
- フィードバック学習
- 制度化された誤り訂正
13. 階層的ベイズモデル選択としての形式化
(表は原文構造保持)
14. 結論
知能とは正しさではない。
それは誤りを訂正し続ける制度化された能力である。
知能とは、何を知っているかではなく、どのように誤るか、そしてそれをどう訂正できるかである。
