Data Analysis

データ分析について語ります。

AIは面白くなってきましたが、まだまだのところも 選球眼が重要になってきます

巷ではChatGPT旋風が吹いていますね。詳細な動作原理は、他のページを見ていただくとして、確率的に最も人間が自然と感じる回答を生成するのが特徴です。確率的に最も自然、というところがミソですね。TransformerというものすごいAI技術があるんですが、それに強化学習を組み合わせたことによってかなり自然な回答ができるようになってきています。

ChatGPTは賢いのか

ChatGPTが返す回答は、ChatGPTが創造したものではないです。人間が作った文章をデータセットとして学習しています。プロンプト(人が入力した質問)の内容をもとに学習したデータの中からもっともらしい答えを返してきます。故に、情報が少ないことなどは結構間違った回答を返します。それがよく分かるのは言語の差で、同じ質問を英語と日本語で実施すると、ほとんどの場合、英語の方がちゃんとした回答が返ってきます。日本語は正直まだだいぶ怪しい(先日OpenAIのサムCEOが来日して日本御の学習データのウェイトを引き上げるといっていたので数か月で状況変わるかもしれないですが)。

ChatGPTにプログラムを書かせるとよりはっきりします。一見きちんとしたプログラムを返してきたりもするんですが、実際には間違ったものや動かないものを返したりもします。普通の質問に対する回答は真偽の判定が難しいときもありますが、プログラムの場合はイケてるイケてないははっきりしますね。全部書かせてまともに動くかというと難しいレベルです。ただ、あの機能どういう関数だったかな、とか、プログラムの骨格やパーツを先に書いてもらってちょいちょい修正して長めのプログラムをサクッと完成させちゃう、みたいな使い方としては非常に便利です。サポートツールとしては有能だと思います。返ってきたプログラムが正しいか否か、どう修正すればいいか、プロンプトはどう書くべきか、ここら辺はちゃんとやらないと使えません。

ちなみに、賢さの原点は人が書いた文章やコンテンツでしたが、もう一つ、強化学習というところもChatGPTの賢さの理由です。が、この強化学習をしているのがまた人間なんですね。結局は過去の人間の蓄積と判断に大きく依存しているということです。「賢っ!」って思ったとしたら、その元ネタを書いた人達や回答にイイネを付けた人達のことをそう思っているという感じですかね。

情報が少ないAIはどう動くか

AIの勘違いの面白い例を。TwitterでAIが考えるというシリーズを投稿しているツノウサさんの作品?です。これ、英語のことわざとかだったらこうはならないでしょうし、学習が進んでいけば、そのうちこういうものは見れなくなるでしょう。ある意味今だけ楽しめるコンテンツです。

AIが考える「豚に真珠」AIが考える「二兎追う者は一兎も得ず」
ツノウサ on Twitter: AIが考える「豚に真珠」 AIが考える「二兎追う者は一兎も得ず」

AIが考える「ひじきのタイタン」AIが考える「奈良県」
ツノウサ on Twitter: AIが考える「ひじきのタイタン」 AIが考える「奈良県」

AIが考える「ウミネコ」AIが考える「モスバーガー」

ツノウサ on Twitter: AIが考える「ウミネコ」 AIが考える「モスバーガー」
ツノウサさんの作品他にもたくさんあるので是非ご覧になってください。笑えます。この笑えるところが重要です。この情報はイケてるイケてない、イケてないところが面白くて笑える、ここは人の判断だからこそ、ですね。この絵の妥当性をAIは判断できてなさそうです(笑えるようにチューニングされている可能性もありますが、もしくは単に学習データ量不足かも)。確率的に妥当、の一形態、といった感じですかね。

 

結論ですが、サポートツールとしてAIは日常生活や仕事でも活用できるレベルになってきています。時短のためにもどんどん利用しましょう。ただ、その情報が妥当か否か、選球眼が必要になってきます。鵜呑みにすることなく、うまく活用していきましょう。