ChatGPTは返答の全体をイメージして答えをはじめる、そして誤っても訂正ができず幻覚を見る

いつもの駄文です。
ChatGPTは回答の全体のイメージを持って返事を書き始めているなーと思いつつ、そして書いてしまった言葉を正として書き進めるので幻覚が生じるんだろうなーと思った話。
そしてやはり結論としては、高度に発達した言語モデルは大阪のおばちゃんになる。

最近はChatGPTにコード生成してもらうことが多いのだけど、頭から順に書いて完全なコードを生成します。これは全体が構成できてないとできないことです。

たとえばJavaでは最初にimport文を書いておくと利用ライブラリのパッケージ名を省略できるわけですが、ChatGPTは基本的に過不足なくimport文を書きます。

ところで、GPT4になってコンパイルが通らないコードが生成されることはかなり減ってますね。コンパイルが通らないときも、ありそうだけど存在しないAPIを呼び出している部分で、構文的なエラーではないことがほとんど。期待通りに動かないことは多いですが、ChatGPTに聞くのは簡単には実装がわからないようなことが多くなるので、それは仕方ない。

まあ、これを見て、ChatGPTは全体像を把握してから文章の生成をしているなと思ったわけです。

一方で、ChatGPTは文章の続きを生成していくという仕組みである以上は、生成した文章は「すでにあるもの」として続きを書いていきます。
そうすると、その流れでは誤ったことを書くしかないとしても「誤った流れの続きを生成する」というタスクを行うしかないので、「幻覚(ハルシネーション)」が発生するのだろうなという気がします。

そうすると、幻覚が発生しないようにするためには単に言語モデルを賢くするだけではだめで、生成した文章について内省する仕組みが必要になると思います。
ChatGPTに「その発言は正しいですか?」と尋ねると誤りを見つけることも多いので、原理的にはそういう仕組みを入れることで幻覚が減らせるように思います。ただ、計算の量は倍増するわけで、そのあたりの効率化ということになるだろうけど。

あと、全体を想定して文章を生成しているということは、言語モデルが賢くなってもっと先まで想定できるようになると、こちらの反応も予測して文章を生成することにもなり、そうするとより人間らしい反応を返すようになるんではないかとも思います。
会話文を多く学習させるとミラーニューロンのような領域が発生したりしないかな?
やっぱ、高度に発達した言語モデルは、こちらが切羽詰まった感じで質問を投げていると「アメちゃん食うか?」っていうようになるという結論になってしまうw
大規模言語モデルはこれ以上賢くならず庶民的になっていく - きしだのHatena

ここで挙げるのは、人の感情を理解することが難しかった高度自閉の人が、前頭葉の言語中枢と思われる部分に電気刺激を与えると感情豊かになっていったという話。
術後に幻覚を見るようになったという話もあって、どうしてもChatGPTと結び付けてしまっておもしろい。
「私が幻覚を起こしたのは、正気を失ったからではない し、脳に化学物質が注がれたからでもない。注がれたのは エネルギーだけだ。」
全体はまだ読んでないけど、冷静な語り口調で、ChatGPTとか関係なく面白そうです。