ChatGPTによって世の中の「AI」の理解がすすんだ

もうなんかどこもかしこもChatGPT、という感じで流行ってますね。といいつつ、ぼくも割とChatGPTのブログ書いてます。だっておもしろいもん。
そして、多くの人が触って、今のAIの特性みたいなものに気づく人が多くなってるように思います。

世の中でAIが流行りだして画像認識だったり音声認識だったり、データ認識系がまず流行りました。
画像に映ってるものがなにかを識別してくれるというのは当時はすごいなと思ったものの、その結果をみても「うまく認識できないものもあるね」という感じでした。
「あぁこういう間違いするんだ」というのもあったけど「錯覚しやすいのね」くらいの感じだったと思います。「錯覚」するのがすごかったりするのだけど。

そもそもとして、画像認識や音声認識を実際に直接触るのは技術者くらいのものなので、普通の人は「alexaがテレビの声に反応してる」みたいなアプリケーションが失敗するという認識で、それがAIの特性というところまでは及ばなかったと思います。

それから拡散モデルの登場から画像生成など生成系が流行りだして、AIすごいというかAIこわいみたいな話になってきました。
画像生成になると、AIの出力がそのまま出回ります。ただ、それでも画像生成を実際に使うのは一部の人で、多くの人は実際にどんなものかを感じれてはいないように思います。
実際に目にするのは、たとえば↑のヘッダー画像もStable Diffusionで生成していますが、だれかが試行錯誤して何十枚何百枚と生成したなかから選ばれた一枚になります。

画像生成では、失敗作って単にキモイだけだったりただボヤボヤした画像だったり、見てもあまりおもしろくないのですよね。なので、あまりネットにあがることもない。
そうすると完成度が高いものだけ目にするので、AI怖い全部AIになっちゃうってなりがちです。

けど、ChatGPTで状況がかわりました。
画像生成欲がある人はそんなに多くないのですが、言葉でやりとりしたい欲は人間活動そのものだったりして、みんなが持っているわけです。
それで多くの人が試すようになって、いまの盛り上がりになっていると思います。

そして、ChatGPTの場合、AIの出力がそのまま表示されます。言葉での応答というのは判別がやりやすいので、AIの特色がわかりやすいです。
Stable Diffusionでの結果は出処がよくわからずネットで収集したデータをもとに作られていることを見過ごしがちですが、ChatGPTの場合は身近なことを問いかけて、そしてそういったことはある程度 自分でぐぐって生のWebデータを見たことがあったりするので、なんとなく学習元データとの対応が想像できたりします。

あと、ChatGPTの失敗っておもしろいので、結構とりあげられてますよね。
そんな感じで、結構うまくいかないのだなーというのがわかりやすく共有されていると思います。

ということで、AIといっても学習データの最頻値を出してるだけだなーみたいなのが実感しやすくなっていると思います。 ちょっとニッチになったり条件が複雑になるとちゃんと答えてくれないとか、それっぽいけどそれぽいだけだなとか、いまの大量データの統計をもとにしたAIのクセが説明しやすいしわかりやすい。
そんな感じで、ChatGPTをきっかけに世の中のAIの理解が進んだなと思ったのでした。

もっと理解したい人は、ChatGPTやStable Diffusionなどのキーになる技術、Transformerについて解説したこちらがおすすめ。
2022年9月出版なのでChatGPTこそ触れられていませんが、GPTにも少し触れられています。