感情を持たない機械が書いたとは思えない、なかなか情緒的な文章です。こうした人間的な表現をしてくるあたりも人気の秘密でしょう。ちなみに日本語にも対応しています。
ただ、ここが微妙なところで、このAIはゼロからこのような文章を書いているわけではなく、膨大なデータを読み込んだなかから、事実と思しき内容を整理し、優れた文章っぽい書き方を真似して書いているにすぎません。確実に正しいことを言っているわけでもなく、まったく新しい発想で文章を書いているわけでもないということです。
例えば「織田信長とは?」とChatGPTに聞くと以下のような回答が返ってきます。
ん? そうです。間違っています。あの、スティーブ・ジョブズについて感動的な文章を書いた同じAIが、こんな初歩的な日本史の知識すら持っていないのです。ちょっと厳しい表現かもしれませんが、どこの何の情報を読み込んだかによって大きく信頼性が揺らいでしまう、現時点のAIはまだまだこんな段階なのです。
さらに、今年開催されるラグビーワールドカップの結果についてChatGPTに聞いてみました。
先ほどの情緒的な文章を書いた「人物」ならもう少しウィットに富んだ返しをしてきそうなものですが、なんだかいきなりコンピューター感丸出しの回答が返ってきました。人間が向こう側にいるかのような信頼を置いてしまいがちですが、学習できなければこの有様なのです。
ただ、今のこの状況をみてガッカリする必要はないと思います。実際メタのAIのトップであるヤン・ルカン氏など、AIの専門家の中にはChatGPTはまだ「途中段階だ」と指摘する人もいます。
同氏はAIの行き着く先はAGI(artificial general intelligence)つまり人工的な知性だと指摘します。ちなみにAGIとはなにかをChatGPTに聞いてみると「人間の知能に似た学習、推論、意思決定、問題解決をするシステムで、AGIを達成することが人類の歴史上のターニングポイントになるという考えもある」そうです。
誤解のないように願いたいのは、私自身AI半導体を作るテンストレントという企業で働いており、AIの将来には非常に大きな期待を持っています。AGIという、人間のように考え、その事実が正しいのかどうか判断できるAIが将来登場することも疑う余地のないことです。
ただそのためには人間の脳により近い学習モデルを作ったり、私の会社のようなハードウェア企業がより高性能なAI半導体をつくるなど、人間の脳を模倣できるようになるにはまだまだ越えねばならないハードルが多くあります。AIの世界は、まだ始まったばかりなのです。