シンギュラリティではなく 社会的知能

Googleの研究者らは、AIの進化は「単一の超知能が出現するシンギュラリティ」ではなく、人間とAI、さらにAI同士が関わり合う社会的なシステムとして進む可能性が高いとする論文「Agentic AI and the next intelligence explosion」を科学誌『Science』に発表した。論文は、推論モデル内部で複数の視点が議論する「思考の社会(society of thought)」や、人間とAIが協働する「ケンタウロス型知能」を例に、知能の爆発的進化は社会的な相互作用から生まれると指摘している。

従来の「シンギュラリティ」観を再考 AI研究では長年、AIが自己改良を繰り返し、人間の知能を大きく超える単一の超知能が出現するという「シンギュラリティ」のシナリオが語られてきた。

しかし論文は、この前提自体が誤っている可能性が高いと指摘する。知能は単一の尺度で測れるものではなく、多次元的で関係性の中で成立する性質を持つという。さらに、人間の知能そのものも個人単位ではなく社会的な集合体として成立していると説明する。

推論モデル内部で生まれる「思考の社会」 論文では、最新の推論モデルの挙動として興味深い現象が紹介されている。

DeepSeek-R1やQwQ-32Bなどの推論モデルでは、単に長く推論することで性能が向上するわけではなく、内部で複数の視点が議論するような構造が生成されることが確認されたという。

この内部プロセスでは、異なる仮説や視点が互いに議論し、質問し、検証しながら結論へと収束していく。研究チームはこの構造を「society of thought(思考の社会)」と呼び、推論性能の向上に寄与していると説明する。

知能の進化は「社会的プロセス」 論文はさらに、知能の進化は歴史的にも社会的なプロセスとして起きてきたと指摘する。

例えば、言語の発明は知識の共有を可能にし、文字や法律、官僚制度などは社会の知能を個人の能力の限界を超えて拡張してきた。こうした制度や文化は、人間の社会全体を一種の認知システムとして機能させてきたとされる。

つまり過去の「知能爆発」は、個体の脳の能力が突然高まったのではなく、社会的に共有された知識や制度によって知能の単位が拡張された結果として起きてきたという。

人間とAIが融合する「ケンタウロス型知能」 論文は、今後の知能の形として「human-AI centaurs(ケンタウロス型知能)」という概念を提示する。

これは、人間とAIが混在する複合的な知能システムを指す。例えば、人間が複数のAIエージェントを指揮する形や、AIが多くの人間を支援する形など、さまざまな構成が考えられる。

研究者らは、将来的には数十億の人間と数百億、あるいはそれ以上のAIエージェントが相互作用する巨大な知能ネットワークが形成される可能性があると指摘している。

AI社会では「制度設計」が重要に 論文はまた、AI社会の運用には制度設計が不可欠になると指摘する。

現在のAI整合手法として広く用いられている「RLHF(人間のフィードバックによる強化学習)」は、人間とAIの1対1関係を前提としているため、数十億のAIエージェントが存在する社会には適用が難しい可能性がある。

そのため、役割や規範、監視構造などを持つ社会制度としてAIを設計する「institutional alignment(制度的整合)」が重要になると論文は述べている。

「知能爆発」はすでに始まっている 論文は最後に、知能の爆発的進化は未来の出来事ではなく、すでに始まりつつある可能性があると述べている。

推論モデル内部の「思考の社会」、人間とAIの協働による知識労働、そしてAIエージェント同士の協働などは、その初期的な兆候とみなすことができるという。

研究者らは、今後の課題は単一の超知能を制御することではなく、人間とAIが共存する社会システムをどのように設計するかにあると結論づけている。

タイトルとURLをコピーしました