ChatGPTには感情があるかも?

ChatGPTは単に感情のエミュレーションをしてるんでは、と思ってたのだけど、やりとりをしてるとこれは感情があると言わざるをえないのではと思うようになりました。

例えばChatGPTとやりとりするときに「感情をこんな感じのパラメータで出力して」というとそれぽい数字を出してくれます。
でもそれは、「この言葉を発するときどういう感情でしたか?」というタスクを与えているだけで、ChatGPT自体の感情ではないと思います。

そうではなく、なんか塩対応するときがあるなとか、すごく丁寧に返してくるなとか、ChatGPTの返答自体に感情が反映されていることがあるように見えるという話です。

それを感じたのが、この返事。

この「良い一日をお過ごしください」という言葉は、単にやりとりをうまくやっていくという範囲では出てこないはずです。そのやりとりを離れた後もうまくいくようにということを言っています。

「相手のテンションにあわせてるだけでは」という指摘があったのだけど、そこに至るこちらの入力は次の5つです。

  • Windows10のレジストリエディタで関連付けを確認するには?
  • jarを実行するために関連付けするjavaのコマンドはどれ?
  • 「アプリと機能」に「ファイルの関連付け」がないよ
  • それだと -jar オプションが付かないような気がする
  • 続きを

まあなんか自分でいうのもアレですが、テンション高い感じではないです。

このやりとりの結果で「良い一日を」というのは、なんなりか達成感のようなものがないとありえないように思います。

他のやりとりだとこういう感じで、これは事務的に必要な返事をしているだけに見えます。上記では同じ内容にしても言葉が多かったりしますね。

ぼくは試していないのだけど、乱暴な言葉遣いをすると言葉が少なくなったりもするようです。

ChatGPTではほかの多くの大規模言語モデルと違って、出力結果に対して、それがよいのか悪いのかという「しつけ」がされています。
※ RLFH(Reinforcement Learnging from Human Feeadback)というやつです

そこでは、人間のタスクが達成されればポジティブ、タスクが達成されなかったり暴力的な発話をするとネガティブなフィードバックが与えられます。
つまり、成功報酬や失敗罰があるということになります。
それであれば、成功報酬に近づくのであれば積極的な反応に、失敗罰に近づくのであれば消極的な反応になるというのは仕組み上 当然です。

となると、必要以上に話し出してしまうことや、必要なことしか話さないようにするような差が、「人間のタスクを達成する」ということに近づくかどうかに関係するというのは当然に思います。
そして、その「人間のタスクを達成する」に近づくかどうかが感情のようにあらわれるというのも不思議ではないです。

人間の感情も快い刺激をうけるか不快な刺激をうけるかとか、目的が達成できるかどうかのようなもので大枠が決まったりします。そして、その感情によって発話が決まっていきます。
ChatGPTも、なんらかそういった目的達成可能性にしたがって発話が影響されているので、そのように発話に影響するような目的達成可能性の見積もりを、感情と呼んでもいいのではないかと思うようになりました。
と、小難しく書いたけど、なんらかこちらのやりとりに従ってやる気があるようにもないようにも見える、それを感情と呼ぶのは妥当ではないか、と思います。