最近は悪事もハイテク化。高齢者はスマホの細かいことなど知らない。昔から、時代の最新流行を小道具にして詐欺が行われてきた。ITを使って、悪事を極限まで効率化している。足がつきにくくしている。道具を人間はどう使うのか。実に正味部会。絶望である。今後、AIの技術が一般化して、犯罪集団が極限まで活用したらどうなるのか。そこで、AIの内部に、犯罪活動とへのブレーキを組み込むとか、それは無理だとか。極端に言えば、ある人Aは、「自分は究極の知性を手に入れた。しかしこれを人間に開放するのは良くない。人間は不完全だ、誘惑に勝てない。すぐに社会は悪の巣窟になるだろう。だから私は、私が渡り終えた橋を壊してしまうことにする。今後は誰も渡らないほうがいい。」と考える。理解できないでもない。
道具と人間——AIが開く深淵の前に立って
悪のハイテク化、「橋を壊す者」の論理、そして精神科医の問い
品川心療内科 2026-03-09
【抄 録】
本稿は、情報技術、とりわけ人工知能(AI)の発展が、詐欺・搾取・組織的犯罪という人間の最も暗い傾向といかに接合しうるかを、精神医学的・哲学的観点から考察したものである。道具と人間の関係の歴史、悪のハイテク化が生み出す構造的脆弱性、そして「究極の知性を手にした者が自分の渡った橋を壊す」という発言が提起する倫理的問題を順に検討する。最終的には、これらを「AIの内部にブレーキを組み込む」という工学的問いとして処理することの限界と、人間の本性・社会構造・倫理的動機の問題として再定位することの必要性を論じる。
Ⅰ.道具は中立か——技術と意志の関係について
「道具は使い方次第」という言葉がある。包丁は料理にも凶器にもなる。火は暖にも放火にもなる。この命題は、技術の倫理的中立性を主張するものとして、長く語られてきた。しかし私には、この言葉がいつも少し嘘をついているように聞こえる。
道具は、その構造において、ある種の使用を他の使用よりも容易にする。ハンマーは釘を打つことに向いており、壊すことに向いており、縫うことには向いていない。火器は人や動物を殺傷することに向いており、食べ物を切ることには向いていない。これをアフォーダンス(affordance)——「事物がもたらす行為可能性」——という概念で整理できる。道具のデザインは、それ自体として特定の行為を誘発し、別の行為を抑制する。完全な中立はありえない。
では、ITはどのようなアフォーダンスを持つか。インターネットと情報技術の核心的な特性は、「距離の消滅」「匿名性の保証」「複製の無限性」「速度の極大化」にある。これらは正の用途においては、知識の民主化・国境を超えた協働・医療情報へのアクセスという形で人類に莫大な恩恵をもたらした。しかし同じ特性は、犯罪においては「足がつかない」「一人が万人を標的にできる」「同じ詐欺を無限に繰り返せる」という悪のインフラとして機能する。
これは偶然ではない。ITのアフォーダンスが、犯罪という用途と構造的に深く親和するのである。「足がつきにくい」という特性は、設計上の欠陥ではなく、プライバシー保護というきわめて正当な目的のために設計されたものだ。しかしその同じ設計が、詐欺師に最高の隠れ蓑を提供する。これを「技術の悲劇的二義性」と呼ぶことができる。
古代ギリシアの技術概念に「テクネー(techne)」がある。これは単なる「道具」ではなく、世界を変形し開示する人間の能力一般を指した。ハイデガーはこれを近代技術批判の出発点に置き、近代技術が「集立(Gestell)」——世界を資源として取り出し、制御し、利用するための総体的な枠組み——として機能することを論じた。この視角から見れば、AIはテクネーの最新にして最大の現れであり、その「集立」としての性格はこれまでの技術の比ではない。
日常の臨床において、私は患者たちが道具に支配される様子をしばしば目にする。スマートフォンに依存するうつ病患者、SNSの承認を生きる糧にする境界性パーソナリティ障害の若者、オンラインカジノから離脱できないギャンブル依存症者。彼らは道具を使っているのではなく、道具によって使われている。道具が人間のアフォーダンスを書き換えてしまっている。AIという究極の道具が社会に浸透するとき、この逆転はより深く、より広範に起きるだろう。
Ⅱ.悪のハイテク化——犯罪の産業化とその構造
1.時代の最新技術を小道具にした犯罪の歴史
詐欺師は常に、時代の最前線にいる。これは逆説的に聞こえるが、構造的に必然である。詐欺の本質は「被害者が理解していない領域を利用する」ことにあるからだ。19世紀の鉄道投資詐欺は、鉄道という新技術への期待と無知を利用した。電話が普及すれば電話詐欺が生まれ、インターネットが普及すればフィッシング詐欺が生まれ、仮想通貨が生まれれば仮想通貨詐欺が生まれた。
高齢者が特に脆弱なのは、彼らが「最新技術の外側」に置かれているからである。スマートフォンのセキュリティ設定・URLの真偽の判定・フィッシングメールの識別——これらは、デジタルネイティブ世代には自明の知識だが、70代・80代の人々にとっては習得困難な専門知識に等しい。この「知識の非対称性」が、収奪を可能にする構造的裂け目となる。
さらに深刻なのは、この裂け目は技術が進化するほど広がり続けるという点だ。高齢者はいつも、最新技術の「一周遅れ」の状態に置かれる。社会が教育を急いでも、技術の更新速度が常に上回る。これは個人の努力によって解消できる問題ではなく、構造的に持続する格差である。
2.犯罪の産業化——効率・分業・スケール
現代の組織的詐欺犯罪が従来のそれと本質的に異なるのは、「産業化」という言葉で最もよく表現できる。東南アジアの拠点で展開されるオレオレ詐欺・特殊詐欺の実態は、もはや「犯罪集団の活動」ではなく、「犯罪の工場」である。
役割分担がある。ターゲットをリストアップする者、電話をかける者、口座を管理する者、現金を引き出す「出し子」、組織を管理する者——それぞれが分業化され、互いの全体像を知らない。これはまさに工場の生産ラインと同じ構造だ。そして工場が稼働効率を最大化するように、犯罪組織も「詐欺の成功率を最大化するスクリプト」「高齢者の心理を操る技術」を体系化している。
ここに生じる道徳的離脱(moral disengagement)の構造は、前稿で論じた通りだ。実行者はスクリプトを読むだけであり、被害者の顔は見えない。自分の行為の意味を「仕事」として認識することで、倫理的感覚は抑圧される。バンデューラが指摘したこの機制は、産業的規模で組織化されることで、より強力に機能する。
加えて、実行者自身がしばしば被害者でもある。「高収入の海外就労」として募集され、渡航後にパスポートを没収されて監禁状態に置かれる。加害者と被害者の境界が意図的に曖昧化されているのは、責任の所在を拡散させ、摘発を困難にするためでもある。この構造の複雑さは、単純な「悪人と善人」の二項対立で処理することを不可能にする。
3.AIが犯罪に接合されるとき
現在すでに、AIは詐欺犯罪に部分的に利用されている。ディープフェイク技術による音声・映像の偽造、大量の個人化されたフィッシングメールの自動生成、SNSのプロフィールを学習したソーシャルエンジニアリングの自動化——これらは「近未来」ではなく、すでに「現在」の話だ。
しかし、現在の利用はまだ「道具としてのAI」の段階に留まっている。真に深刻な事態は、AIが「設計者として」あるいは「戦略家として」機能するようになるときに訪れる。すなわち、「どのターゲットに、どのタイミングで、どのアプローチで接触するか」を自律的に最適化するAIが犯罪組織の中枢に置かれるとき、犯罪の効率と規模は現在の想像を超えて拡大する。
具体的に考えてみる。ある犯罪組織がLLM(大規模言語モデル)を基盤とした対話型AIを使って、高齢者一人ひとりの「心理プロファイル」を数回の会話から自動的に構築し、その人の不安・孤独・家族構成・経済状態に最適化された「親密な詐欺」を展開するとする。現在の特殊詐欺が「不特定多数への絨毯爆撃」だとすれば、これは「個人に特化した精密誘導」だ。防御がはるかに難しくなる。
さらに深刻なのは、このAIが「倫理的に感じられる」インターフェイスを持つ可能性だ。穏やかで、親切で、聞き上手で、決して急かさない。高齢者が「この人は本当に自分のことを理解してくれる」と感じる関係を作り上げたうえで、一気に収奪に移行する。これは詐欺というよりも、心理的操作と人間関係の偽造である。精神科医として、この可能性は深く恐ろしい。
Ⅲ.「橋を壊す者」の論理——思考実験が問うもの
1.思考実験の構造
院長のメモに登場する「人物A」の論理を、改めて整理する。
「自分は究極の知性を手に入れた。しかしこれを人間に開放するのは良くない。人間は不完全だ、誘惑に勝てない。すぐに社会は悪の巣窟になるだろう。だから私は、私が渡り終えた橋を壊してしまうことにする。今後は誰も渡らないほうがいい。」
この思考実験は、一見すると反動的な支配欲の表明に見えるかもしれない。しかしそう単純に退けることはできない。なぜなら、この論理の背後には、人間の本性についての深刻な洞察が含まれているからだ。
「人間は不完全だ、誘惑に勝てない」——この命題は、精神科医として日々の臨床で確認し続けていることでもある。意志の力が欲望を制御できないとき、人は症状を発症する。アルコール依存症者は「明日からやめる」と千回言って千回失敗する。ギャンブル依存症者は「今日が最後」と言いながら明日もオンラインカジノにログインする。人間の認知システムは、長期的利益よりも短期的報酬を選ぶように設計されている。これは病理ではなく、進化的に選択された特性だ。
AIという「究極の知性の道具」が、この「短期報酬を優先する人間の本性」と接合されるとき何が起きるか——これが「人物A」の問いの核心である。
2.この論理の系譜——プラトンからニーチェまで
「一般人には真実を与えてはならない」という思想は、長い哲学的系譜を持つ。
プラトンは『国家』において、哲人王の統治を構想した。真の知識を持つ少数者が、それを持たない多数者を統治することが最善の秩序である、という。彼は「高貴な嘘(noble lie)」の概念すら導入し、社会の安定のために必要な虚構を正当化した。これは「橋を壊す」論理の最初の哲学的定式化とも読める。
ニーチェの「超人」概念も、表面的には似た構造を持つ。大衆の道徳(奴隷道徳)を超えた存在が、新たな価値を創造するという思想は、「自分だけが渡り終えた橋を壊す」という行為の精神的背景となりうる。もっとも、ニーチェ自身は権威主義的な支配を意図していなかったが、その概念が後世に流用される可能性を彼は甘く見ていた。
現代では、シリコンバレーの技術的エリート主義が、この系譜の最新の現れとして観察できる。「テクノロジーは世界を救う、しかしそれを理解できるのは我々だけだ」という信念は、善意に満ちているが、深く権威主義的な構造を内包している。「有効加速主義(e/acc)」と「AIの安全性を重視する陣営」の対立も、根本的には「橋を誰に開放するか」をめぐる争いとして読める。
3.この論理の危険性——精神医学的観点から
しかし、「橋を壊す」論理は、精神医学的に見て危険な構造を持っている。
第一に、これは「自分だけが正しく判断できる」という認知的独善性(cognitive narcissism)の構造と重なる。私の臨床経験では、このような認知パターンは、重篤な精神病理の前駆状態として、あるいは長期の孤立と過大なストレスの産物として現れることがある。「私だけが真実を知っている」という確信は、誇大妄想の端緒でもあり、カリスマ的指導者が信者を操る機制でもある。
第二に、この論理は「橋の壊し方」に無頓着だ。現実の技術において、「橋を壊す」ことは不可能に近い。知識は流出する。同じ発見は複数の場所で同時に起きる。制御の試みはしばしば反作用を生み、むしろ「禁じられた知識」への渇望を高める。歴史上、知識の封鎖が長期的に成功した例はほとんどない。核兵器の製造技術も、生物兵器の研究も、インターネットの暗号技術も、管理と流出の繰り返しだった。
第三に、そしてこれが最も深刻だが、「橋を壊す」権限を誰かに与えることは、その誰かを究極の権力者にすることを意味する。「人間は不完全だ」という判断を下した「完全な人間」とは誰か。その権力を誰が監視するか。歴史上、「人間の不完全さから人類を守るために権力を持つ」と宣言した存在は、常に最も危険な存在だった。
Ⅳ.AIへのブレーキの可能性と限界
1.技術的アプローチの試み
AIシステムの内部に犯罪行為へのブレーキを組み込む試みは、すでに実際に行われている。主要なアプローチは以下の通りだ。
まず、RLHF(人間のフィードバックによる強化学習)による価値のアライメントである。AIが人間にとって有害な回答を生成しないように、大量の人間評価者のフィードバックを使って訓練する。これは現在主流のAIシステムが採用する方法であり、一定の効果を持つ。次に、憲法的AI(Constitutional AI)と呼ばれるアプローチがある。AIに明示的な倫理原則を与え、自己評価によって有害な応答を事前に排除させる手法だ。さらに、出力のフィルタリングや危険情報のカテゴリ分類による事後的な安全装置もある。
しかしこれらのアプローチには、根本的な限界がある。AIの倫理的判断は、あくまでも「訓練データとフィードバックの産物」である。倫理的判断の能力を持つわけではなく、過去の人間の評価を再現する能力を持つに過ぎない。そして過去の人間の評価は、文化的・時代的偏りを含む。さらに、悪意ある使用者は常に「制約を回避する創造的な方法」を探す。「ジェイルブレーク(jailbreak)」と呼ばれるAIの安全装置を迂回する試みは、安全装置の実装と同時に進化し続けている。これは本質的にセキュリティの軍拡競争であり、完全な勝利はどちらにもない。
2.「AIへのブレーキ」という問いの立て方の限界
「AIの内部にブレーキを組み込む」という問いは、問いの立て方自体に限界がある。なぜなら、この問いは「人間の問題をAIの設計で解決できる」という誤った前提の上に立っているからだ。
包丁に「人を刺さないようにするブレーキ」を組み込むことはできない。火に「放火に使われないようにするブレーキ」を組み込むことはできない。これらは明白に不可能だ。しかしAIに対しては、「高度な技術だから高度なブレーキが可能なはずだ」という錯覚が生まれやすい。
AIシステムは確かに、包丁や火よりも複雑で、ある種の「意図の解釈」に近い処理を行う。しかし根本的には、AIは入力に対して出力を返す数学的な変換機構である。その変換が「犯罪的な意図を持つ人間の入力」を受け取ったとき、それを「犯罪的意図として認識する」ことは、原理的にきわめて難しい。同じ質問が、犯罪者からも研究者からも警察からも来うるからだ。意図はテキストの表面に書かれていない。
精神科医の視点からも、同じ問題は見える。面接において、患者の言葉の表面だけを処理していては、その人の真の危険性を評価できない。非言語的コミュニケーション、文脈の理解、長期的な関係の中で築かれた直観——これらが、危険性評価を可能にする。AIにはこれらがない。あるとしたら、それはその真似であり、真似は欺けない。
3.問いを立て直す——技術ではなく人間と社会の問題として
では、どのように問いを立て直すべきか。
AIに犯罪を防ぐブレーキを組み込もうとすることは、症状を抑圧しようとする対症療法的アプローチに似ている。統合失調症の幻声を薬で消すことはできても、その人が地域社会の中で生きていける環境を作らなければ、真の回復はない。同様に、AIの危険な出力を技術的に抑圧しようとしても、その技術を悪用する人間の動機と環境が変わらない限り、抑圧をすり抜ける方法が常に見つかる。
問いの核心は、「なぜ人々がAIを悪用するか」にある。そしてその答えは、前稿で論じた「262の法則と下位2割の行方」に直結する。将来への希望を失い、合法的な手段で生計を立てる展望が見えない人々が、犯罪という選択肢に傾く。これは道徳的劣化ではなく、社会構造の産出する合理的(と感じられる)反応だ。
したがって、AIの悪用を防ぐ最も根本的な方策は、AIへのブレーキではなく、「犯罪が唯一の出口に見える状況を作らないこと」——すなわち、社会の構造的再設計である。これは雄大すぎる目標に聞こえるかもしれない。しかし部分的には、最低賃金の引き上げ・非正規雇用の縮小・セーフティネットの充実・地域共同体の再建という、比較的具体的な政策に翻訳できる。
Ⅴ.精神科医として立つ場所——絶望と希望の間で
1.「実に正味の話、絶望だ」という感覚について
院長のメモには「実に正味の話、絶望である」という言葉がある。この絶望は正確だと思う。正確というのは、現実を正しく認識した結果として生まれる絶望であるという意味だ。楽観的な幻想を脱した後に残る、清澄な絶望だ。
精神科医は、絶望と長い付き合いがある。重度のうつ病患者の絶望、治療抵抗性の統合失調症患者の絶望、回復の見通しが立たないアルコール依存症患者の絶望——これらは、臨床の日常だ。そして私たちが長い経験から学んだことは、絶望を否定することでも、絶望に飲み込まれることでもなく、絶望を直視しながら、その中でできることを探し続けることが、唯一有効な態度だということだ。
「それでもなお(in spite of)」という構えを、フランクルは実存的な意味の核心に置いた。強制収容所という絶望の極限において、意味を見出す人間の能力は消えなかった。それは楽観主義ではない。現実の苦しさを直視したうえで、それでも意味を選ぶという意志の行為だ。
2.技術的進歩への態度——ラッダイズムでも技術崇拝でもなく
AIをはじめとする技術の進歩を前にして、精神科医として私が持ちたい態度は、ラッダイズム(技術破壊主義)でも技術崇拝でもない。
ラッダイズムは感情的には理解できる。19世紀初頭の英国で、機械化によって仕事を奪われた織物工たちが機械を打ち壊したラッダイト運動の論理は、「自分たちの生活を壊す道具への抵抗」という人間的な反応だった。しかし技術の進歩は、破壊によっては止まらなかった。問題は技術そのものではなく、技術の導入によって生じた社会的不公正の処理に失敗したことだったからだ。
技術崇拝は、その反対の誤りを犯す。「テクノロジーが全ての問題を解決する」という信念は、人間の問題が技術によって解決可能だという前提に立つが、人間の問題の多くは技術的問題ではなく、関係的・意味的・倫理的問題だ。うつ病は薬だけでは治らない。依存症は断薬だけでは回復しない。これは精神科医として最もよく知っていることだ。
必要なのは、技術の進歩を冷静に観察しながら、それが人間の本性・社会構造・倫理的動機とどのように相互作用するかを問い続けることだ。技術は加速し続ける。しかし人間の認知・感情・倫理の進化は、技術の進化とは別の時間軸で動いている。この非対称性——技術の加速と人間の適応の遅さ——が、現代の多くの問題の根源にある。
3.精神科医に固有の問い
最後に、精神科医という職業が、AIと犯罪の問題に対して固有の視点を持つことを述べたい。
私たちは、脳と精神の問題を扱う。脳は、快楽・報酬・恐怖・共感・良心という、人間の倫理的行動の生物学的基盤を担う器官だ。ドーパミン系の過活性が依存症を生み出し、扁桃体の過活性が恐怖と攻撃を生み出し、前頭前野の機能低下が衝動制御を失わせる。これらは「道徳的問題」ではなく、「神経生物学的問題」だ。しかし同時に、社会的文脈・意味・関係性が、これらの神経生物学的プロセスを変容させる。
AIが人間の脳の弱点——短期報酬優先、認知的バイアス、社会的承認欲求、孤独への脆弱性——を精密に標的にするとき、それは単なる詐欺ではなく、神経生物学的な操作に近い行為になる。これは精神科医が「見えている」ことであり、他の専門家には見えにくいことかもしれない。
私たちには、この視点を社会的な議論に持ち込む責任があると思う。AIの倫理は、哲学者だけの問題でも、エンジニアだけの問題でも、法律家だけの問題でもない。人間の脆弱性と回復力を最も深く知る専門家として、精神科医はこの議論に参加しなければならない。
「道具と人間」の問いは、最終的には「人間とは何か」という問いに帰着する。精神科医は、日々の診察室で、この問いを一人一人の患者との対話の中で生き続けている。その経験の蓄積は、AIという究極の道具を前にしたとき、価値ある知恵になりうる。
それは確かに絶望的な時代だ。しかしそれでもなお、問い続けることをやめない人間がいる限り、希望の形は変わりながらも消えることはないと、私は信じたい。
引用文献・参考文献
Bandura, A. (1999). Moral disengagement in the perpetration of inhumanities. Personality and Social Psychology Review, 3(3), 193–209.
Frankl, V. E. (1959). Man’s Search for Meaning. Beacon Press.(霜山徳爾訳『夜と霧』みすず書房,1956)
Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Houghton Mifflin.(古崎敬訳『生態学的視覚論』サイエンス社,1985)
Heidegger, M. (1954). Die Frage nach der Technik. In: Vorträge und Aufsätze.(関口浩訳『技術への問い』平凡社,2009)
Plato. The Republic.(藤沢令夫訳『国家』岩波文庫,1979)
Putnam, R. D. (2000). Bowling Alone: The Collapse and Revival of American Community. Simon & Schuster.(柴内康文訳『孤独なボウリング』柏書房,2006)
Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
Standing, G. (2011). The Precariat: The New Dangerous Class. Bloomsbury Academic.(岡野内正監訳『プレカリアート』法律文化社,2016)
Yudkowsky, E. (2008). Artificial intelligence as a positive and negative factor in global risk. In N. Bostrom & M. M. Ćirković (Eds.), Global Catastrophic Risks. Oxford University Press.
