生成AIが自己生成した低品質なデータ(合成データ)を再学習し続けたとき、性能は徐々に劣化していく。これが『モデル崩壊』である。
初期段階では出力の多様性が失われ、やがて特定パターンへの偏重が進み、最終的には意味すら持たない応答を繰り返す……。それは、知能の死に他ならない。
この現象は『AIオートファジー(AI Autophagy)』とも呼ばれる。
生成AIが自己生成した低品質なデータ(合成データ)を再学習し続けたとき、性能は徐々に劣化していく。これが『モデル崩壊』である。
初期段階では出力の多様性が失われ、やがて特定パターンへの偏重が進み、最終的には意味すら持たない応答を繰り返す……。それは、知能の死に他ならない。
この現象は『AIオートファジー(AI Autophagy)』とも呼ばれる。