クオリア問題はChatGPTで説明がつく

クオリアというのは、たとえば赤い色をみたときに、それがカラーコードとして同じであっても、リンゴの赤と血の赤で想起される「赤らしさ」が違うよね、そのそれぞれの「赤らしさ」とは?みたいな話です。
それがChatGPTの挙動と対応づけれるんではないだろうか、と。
クオリアを解明できるという話ではありません

もしくは、「りんご」と言ったときにあの赤い果物の直接的なイメージだけではなく「こないだ食べたのはちょっと固かった」だとか「スーパーで300円で並んでた」だとか「皮をむくのがめんどかった」だとかいろいろ想起されることも含めた「りんごらしさ」のことです。
正確にいえば、何かの単語や物体を意識したときに「らしさが生まれること」をクオリアと呼んでるんだと思います。

そいういうクオリアというのが結局なんなのか、というのが問題になってると思うのだけど、ChatGPTを見るとなんとなくクオリアというのが何かみえてきます。
ChatGPTの結果文だけ見てるとわかりませんが、裏では毎単語ごとに候補が確度付で提示されているはずです。
たとえば「りんごは」という言葉の続きとして「赤い:40%, おいしい:30%, 固い: 10%, 安い: 5%, 高い: 8%」みたいな感じで候補が出てきます*1。ChatGPTではこれを一定のルールでひとつを選んで出力します。
このときに出てくる候補全体、つまり「赤い:40%, おいしい:30%, 固い: 10%, 安い: 5%, 高い: 8%」がクオリアではないかと思うわけです。
だいたいのクオリアに関する文章は、その理解でつじつまがあうように思います。

ただし、ChatGPTではこの候補について確度しか見ておらず、実際の単語については選択したひとつだけに注目します。なので、ChatGPTでは感覚としてのクオリアは発生していないと思います。
人間は「赤い:40%, おいしい:30%, 固い: 10%, 安い: 5%, 高い: 8%」という候補全体が意識に影響してクオリアとなり、そこが「AI」との差別化になっているのだと思います。

逆にいえば、もしAIがその候補全体を意識することができれば、クオリアが発生し、人間と同様の意識が発生するのではないかと思います。ただ、もし「赤い:40%, おいしい:30%, 固い: 10%, 安い: 5%, 高い: 8%」という候補について上位3つを残すとしても、5単語つづければ処理量が250倍、10単語つづければ6万倍になるので、10秒での出力が7日に、2単語増やすとそれが1年になって現在のコンピュータの延長では現実的な開発ができなくなります。

とはいえ、研究目的として忍耐強く動かすと、なんらか人間の意識と同じようなふるまいをするコンピュータが実装できる可能性もあるので、だれかチャレンジすると面白いと思います。

追記: 2023/3/27
メアリーの部屋という記述が出てるのだけど、むしろこの考え方を補強できる話のように思います。
GPT4では画像なども含めたマルチモーダルなモデルで、すでに「自然言語処理AI」ではなくなってます。これを白黒画像だけで最初に学習させて、カラー画像を入れて転移学習させたらどうなるか、という話になるのではないかと。
ChatGPTでクオリアを説明するときの「メアリーの部屋」 - きしだのHatena

逆転スペクトルというのも出てますが、これは緑と赤の感受性が逆だったら、みたいな話なので、GPT4に投入する画像のRとGを入れ替えたらどうなるかという話になりますね。

*1:実際には、内容のよくわからない高次元ベクトルです