技術が倫理を追い越すとき、社会は「できてしまうこと」を止める言葉を失います。
以下、段階的に整理します。
1. まず何が起きるか:
「可能性」が「正当性」にすり替わる
- できる
→ 使われる
→ 使われている
→ だから正しい
という無言の論理が成立します。
誰も「使うべきか」を決めていないのに、
結果だけが積み上がっていく。
2. 判断主体が消える
倫理は本来、
- 誰が
- 何のために
- どこまで責任を負うか
を問います。
しかし技術が先行すると、
- 開発者:作っただけ
- 運用者:決まりだから
- 利用者:選べなかった
となり、責任の所在が霧散する。
これはハンナ・アーレントの
「凡庸な悪」の技術版と呼べるでしょう。
3. 人間が「対象」に変わる
技術は世界を操作可能なものとして扱うため、
- 人は「ケース」
- 行為は「データ」
- 苦悩は「ノイズ」
に変換されやすい。
倫理は本来、人を「代替不能な存在」と見るが、
技術は「処理可能な単位」に分解する。
4. 不可逆性が見えなくなる
技術の特徴は後戻りできないこと。
- 原子力
- 遺伝子編集
- AIによる評価・予測
- 精神医療の強制的介入
一度社会実装されると、
「やめる」という選択肢が制度上消える。
倫理は「立ち止まる」ための言語だが、
技術は「立ち止まれない設計」を持つ。
5. 沈黙の強制が起きる
技術が倫理を追い越すと、
- 不安を語る人は「非科学的」
- 疑問を呈する人は「進歩に反対」
- ためらう人は「遅れている」
とラベリングされる。
これは暴力だが、
極めて静かな暴力。
6. 精神医療の文脈での具体像
技術が倫理を追い越したとき、
- 診断が人を定義する
- ガイドラインが臨床判断を置き換える
- ケアがアウトカム指標に還元される
結果、
- 「良くならない人」が制度の失敗ではなく、
- 「適応できない人」として扱われる。
7. 社会に起きる深層変化
意味が消える
- なぜやるのか、が問われない
時間が潰れる
- 考える暇がない
- 立ち止まる余地がない
言葉が貧しくなる
- Yes/No
- 効果あり/なし
- 適合/不適合
8. それでも技術は悪か?
違います。
問題は技術ではなく、
技術を「止める言語」を持たない社会です。
倫理はブレーキであり、
進歩を止めるためではなく、
曲がるためにある。
9. 一文で言うなら
技術が倫理を追い越すとき、
人は自分が何をしているのか分からないまま、
取り返しのつかないことをする。
