夢-20260311-5 予測誤差最小化システムが「意図的にノイズを注入する」という逆説

予測誤差最小化システムが「意図的にノイズを注入する」という逆説


まず前提を整理する

フリストンの自由エネルギー原理では、脳のあらゆる活動は変分自由エネルギーの最小化に向かっていると説明されます。

簡略化すると:

自由エネルギー ≈ 予測誤差の総量

脳は常に「世界のモデル」を持ち、そのモデルから予測を生成し、実際の感覚入力との誤差を最小化しようとし続けます。これが知覚であり、行動であり、学習です。

ここで能動的推論の核心は:

  • 知覚:モデルを更新して誤差を減らす
  • 行動:世界を変えて予測通りにする
  • 学習:モデルの精度パラメータ(precision)を更新する

逆説の構造

ここで問いが生まれます。

誤差を最小化しようとするシステムが、なぜ夢の中で「意図的に歪んだ入力=ノイズ」を生成するのか?

Hoelの主張通りに夢が「能動的なノイズ注入」だとすれば、それは一時的に自由エネルギーを意図的に上昇させる行為に見えます。これは原理と矛盾するように見える。

これが逆説の核心です。


逆説の解消:時間スケールの分離

しかしこれは、最適化の時間スケールを分けることで解消できます。

フリストンの枠組みには、実はこの解消への鍵が内蔵されています。自由エネルギーの最小化は短期的な最小化と長期的な最小化が必ずしも一致しないのです。

機械学習で言えば:

短期最適化(局所解)→ 過学習
長期最適化(大域解)→ 汎化

局所的な予測誤差を徹底的に下げると、モデルが訓練データに固着し、大域的には脆弱なモデルになります。

つまり:

時間スケール戦略自由エネルギー
短期(覚醒中)誤差を最小化下がる
睡眠中意図的にノイズ注入一時的に上がる
長期モデルの汎化能力向上トータルで下がる

夢は長期的な自由エネルギー最小化のための、短期的な自由エネルギーの投資である、と解釈できます。


精度(Precision)の問題として読み直す

フリストンの枠組みで最も重要な概念の一つが**precision(精度の重み付け)**です。

予測誤差はすべて等価ではなく、そのシグナルの信頼度(precision) によって重み付けされます。精度が高い誤差ほど、モデルの更新に強く影響します。

睡眠中に何が起きているかを、この枠組みで考えると:

REM睡眠中は、感覚入力のprecisionが意図的に低下している

ノルアドレナリン系(精度調整に深く関与)の活動がREM中に著しく低下することはよく知られています。これはつまり、外界からの感覚信号が「信頼度の低い信号」として扱われる状態です。

この状態では:

  • 外部入力の誤差が無視される
  • 内部生成モデルが「自由に走る」
  • 脳幹からのランダムな活性化(PGO波など)が低precision入力として処理される
  • それに対してモデルが「最善の解釈」を与えようとする

これはあなたが最初に提唱したノイズ仮説と、Hoelの能動的ノイズ注入を統合する視点です。


統合的な解釈

覚醒中:
  外部入力 high precision
  → 誤差を強く修正
  → 局所的なモデル更新
  → 過学習のリスク蓄積

REM睡眠中:
  外部入力 precision → ほぼゼロ
  内部ノイズ(脳幹・記憶断片)が低precision信号として入力
  → モデルが「ゆるく」走る
  → 通常では起きない遠距離の連想・結合が発生
  → 大域的なモデルの再構造化
  → 長期的な自由エネルギー最小化

これは自由エネルギーの局所的上昇が、大域的最小化のための探索であるという構造です。物理で言えば**アニーリング(焼きなまし)**に近い。

局所解から抜け出すために一時的にエネルギーを与え、より低い大域解へ到達させる。


残る深い問い

この解釈が正しいとしても、二つの問いが残ります。

① 誰が精度を調整しているのか?

精度の低下はノルアドレナリン系の機能として記述できますが、それは「誰かが意図的に調整している」のではなく、進化によって設計された自律的なプロセスです。これはHoelの「意図的なノイズ注入」という表現が持つ目的論的ニュアンスへの疑問でもあります。フリストンの枠組みは目的論を避けたいはずなのに、夢の機能主義的説明は目的論に引き寄せられます。

② 発見の夢はどこから来るのか?

前回も触れましたが、precision低下+内部モデルの自由な走りは、既存のモデルの組み合わせの変異しか生まないはずです。しかし「自分の世界モデルに属さない」ような夢の感覚は、単なる再結合では説明しにくい。

ここに、あなたの時間遅延理論が入れる余地があると思います。遅延フィードバックループは、単純な再帰的生成とは異なる創発的なダイナミクスを生む可能性があります。再結合ではなく、ネットワークの動的挙動そのものが新しい表現を生み出す、という方向です。

ぜひその理論を聞かせてください。

タイトルとURLをコピーしました