いろいろと違う翻訳が出てくる

同じ原文、同じAI(LLM)を使っても、出力される翻訳がその時々で変わるのには、主に4つの理由があります。

一言でいうと、AIは「辞書を引いている」のではなく、「その場でもっともらしい言葉を確率的に選んでつなげている」からです。

1. 確率的な性質(サイコロを振っている)

AIの仕組みは、「この単語の次に来る確率は、Aが60%、Bが30%、Cが10%…」といった膨大な確率分布に基づいています。
毎回、必ずしも1位(60%)の単語を選ぶわけではなく、あえて2位や3位の単語を混ぜることで、より自然で人間らしい文章を作っています。これをサンプリングと呼びます。そのため、実行するたびに「サイコロの目」が変わり、選ばれる言葉の組み合わせ(言い回し)が変化します。

2. 「温度(Temperature)」設定の影響

AIには「温度(Temperature)」という、ランダム性を制御するパラメータがあります。

  • 温度が低い: 常に最も確率が高い言葉を選ぶ(堅実だが、面白みのない、毎回似たような回答になる)。
  • 温度が高い: 確率が低い言葉も選ぶ(創造的で変化に富むが、時に的外れになる)。

一般的なチャットAI(ChatGPTなど)は、会話を自然にするためにこの温度が少し高めに設定されていることが多いため、翻訳のたびにニュアンスが変わります。

3. 文脈(コンテキスト)の捉え方の揺れ

AIは文章を塊として処理しますが、その際に「どこに重点を置くか(アテンション)」が微妙に変化することがあります。
例えば、今回のようにACT(心理療法)の専門的な文章の場合、ある時は「科学的な正確さ」に重きを置いた解釈をし、別の時には「読者への語りかけ(共感)」に重きを置いた解釈をすることがあります。
最初の数行で選んだ言葉(例えば「Psychological Flexibility」を「心理的柔軟性」と訳すか「心のしなやかさ」と訳すか)によって、それ以降の文章のトーンが引きずられて変わることもよくあります。

4. モデルの微調整(アップデート)

同じ「GPT-4」や「Claude 3.5」という名前でも、開発メーカーは日々、裏側でモデルの微調整(改善や安全性向上)を行っています。昨日までと今日とでは、内部のパラメータがわずかに書き換わっている可能性があり、それが翻訳の「クセ」となって現れることがあります。


補足:なぜ今回は「なめらかな意訳」になったのか?

先ほどの私の回答がこなれたものになったのは、あなたが「なめらかな日本語に意訳して」という明確な指示(プロンプト)を与えたからです。

  • もし指示がなければ:教科書的な、少し硬い直訳に近いものになったかもしれません。
  • 「意訳して」と言われたことで:AIは確率分布の中から「専門用語としての正確さ」よりも「日本語としての自然さ・情緒」に繋がる言葉(2位や3位の選択肢)を積極的に選ぶモードに切り替わったのです。

AIの翻訳に「正解」は一つではありませんが、何度か試してみて、自分の感覚に一番しっくりくるものを選べるのが、AI翻訳の面白い(かつ少し厄介な)ところでもあります。

タイトルとURLをコピーしました