2月22日に、マイクロソフトの検索エンジンBing(ビング)に新しい機能が搭載された。人間が出す指示に応じて、AIが文章を書いてくれる。この技術は、「対話型生成系AI技術」と呼ばれる。
私はこれにかなりショックを受けている。なぜなら、AIが私の仕事を奪う可能性が、現実味を増したと感じるからだ。
この背景を述べよう。
昨年12月にChatGPTという対話型生成系AIのツールが公開された。文章を書く作業が自動的に行えるようになり、大きな反響を呼んだ。世界中で利用者が急増し、2カ月で1億人になったといわれる。
これを用いて書かれた本がアマゾンのキンドルストアに現れた。ロイターが伝えたところでは、著者もしくは共著者にChatGPTの記載がある電子書籍が、2月半ば時点で200冊を超えた。ChatGPTを利用したことを開示していない著者が多いため、AIを使って書かれた本は、もっと多いと見られている。
ただし、私は、これにはショックを受けなかった。
その理由は、ChatGPTが出力する文章には、往々にして、事実に反する内容があるからだ。
小説(とくにSF、ファンタジー、童話)の場合には、事実に反することが書いてあっても、問題はない。犬が人間の言葉を話しても、一向に構わない。だから、ChatGPTが出力した文章をそのまま公開しても、問題は起こらない。
ところが、私が書いているのは小説ではなく、論述文だ。したがって事実に反することは書けない。
例えば、「政府が打ち出した**の政策は適切なものではない」と書いたが、実際にそのような政策は存在しないとしたら、 アウトだ。誤った事実をそのまま書いたら、命取りになる。
ところが、ChatGPTが出力する文章には原典が示されていないので、事実なのかどうかを確かめるすべがない。確認するためには別途調べる必要があり、これにはかなりの手間を要する。
だから、ChatGPTで書けるのは小説(とくにSF)に限られ、論述文は難しいと考えていた。
アメリカの大学では、ChatGPTを用いて書いたレポートが急増していると伝えられているのだが、対処の仕方はあると考えている。レポートの出題者が、「事実を例示して述べよ」と制約をかけておけばよいのだ。
そうすれば、ChatGPTが作った文章をそのまま提出するのは、きわめて危険なことになるだろう。
ところが、Bingは違う。文章を書くためにウェブサイトを検索しており、出所を明記している。だから、書いてある内容が事実かどうかは、そのサイトを見ればチェックできる。あるいは、「**によれば」と書いておけばよい。
だから、私がカバーしている領域にも、AIが書いた文章が大量に出てくる可能性がある。
ChatGPTの場合もBingの場合も、質問を何度も繰り返すことによって、生成される文章の内容を望む内容に近づけていくことができる。
しかも、内容について、「批判的な立場から書いてほしい」とか、「賛同する立場から書いてほしい」というような注文を付けることも可能だ。