ここまでAIと根気強く付き合ってみると、
AIが何か言っていても、あたらしい洞察があるわけではなく、
ただある種の「翻訳」のようだと感じる。
フロイト系と神経回路系となどを並べて、類似の形があれば、そこを同型だと推断して、
二つの言語系を翻訳している。
それで、統一的に理解できるなどという。嘘である。
実験系でない場合にはでたらめを言っていればいいのかもしれない。
pcのことをAIに聞くときは、問題が解決できることが多くて、
とてもありがたくて感謝するけれども、
ときに、AIの言うとおりにならないことがあり、
その時に、AIは間違ったとは言わず、いろいろと提案してくる。
そんな時は、AIの能力の限界をはっきり確認できる。
知識関係ではない数学関係は抜群に強いと思う。
ローカルLLMを使うと、能力の低いLLMの動きがよく分かる。
色々な種類を試みに使ってみるが、ネットで書かれている評判やカタログ数値も、体感と一致しないことも多い。翻訳が得意だとか、日本語が得意だとか、でたらめである。
会社での定型的な仕事で機密を要するときなどはローカルLLMを使う必要もあるのだろう。
どうせなら一番性能が高いものを使えばいいに決まっている。
