技術が倫理を追い越すとき社会は「できてしまうこと」を止める言葉を失う

技術が倫理を追い越すとき、社会は「できてしまうこと」を止める言葉を失います。
以下、段階的に整理します。


1. まず何が起きるか:

「可能性」が「正当性」にすり替わる

  • できる
    → 使われる
    → 使われている
    → だから正しい

という無言の論理が成立します。

誰も「使うべきか」を決めていないのに、
結果だけが積み上がっていく。


2. 判断主体が消える

倫理は本来、

  • 誰が
  • 何のために
  • どこまで責任を負うか

を問います。

しかし技術が先行すると、

  • 開発者:作っただけ
  • 運用者:決まりだから
  • 利用者:選べなかった

となり、責任の所在が霧散する。

これはハンナ・アーレントの
「凡庸な悪」の技術版と呼べるでしょう。


3. 人間が「対象」に変わる

技術は世界を操作可能なものとして扱うため、

  • 人は「ケース」
  • 行為は「データ」
  • 苦悩は「ノイズ」

に変換されやすい。

倫理は本来、人を「代替不能な存在」と見るが、
技術は「処理可能な単位」に分解する。


4. 不可逆性が見えなくなる

技術の特徴は後戻りできないこと。

  • 原子力
  • 遺伝子編集
  • AIによる評価・予測
  • 精神医療の強制的介入

一度社会実装されると、
「やめる」という選択肢が制度上消える。

倫理は「立ち止まる」ための言語だが、
技術は「立ち止まれない設計」を持つ。


5. 沈黙の強制が起きる

技術が倫理を追い越すと、

  • 不安を語る人は「非科学的」
  • 疑問を呈する人は「進歩に反対」
  • ためらう人は「遅れている」

とラベリングされる。

これは暴力だが、
極めて静かな暴力


6. 精神医療の文脈での具体像

技術が倫理を追い越したとき、

  • 診断が人を定義する
  • ガイドラインが臨床判断を置き換える
  • ケアがアウトカム指標に還元される

結果、

  • 「良くならない人」が制度の失敗ではなく、
  • 「適応できない人」として扱われる。

7. 社会に起きる深層変化

意味が消える

  • なぜやるのか、が問われない

時間が潰れる

  • 考える暇がない
  • 立ち止まる余地がない

言葉が貧しくなる

  • Yes/No
  • 効果あり/なし
  • 適合/不適合

8. それでも技術は悪か?

違います。

問題は技術ではなく、
技術を「止める言語」を持たない社会です。

倫理はブレーキであり、
進歩を止めるためではなく、
曲がるためにある。


9. 一文で言うなら

技術が倫理を追い越すとき、
人は自分が何をしているのか分からないまま、
取り返しのつかないことをする。


タイトルとURLをコピーしました