生成AIとウソ

 

ChatGPTなどの出現によって、2022~2023年はエポックを画した年として語り継がれるのではないかと言われています。

私たち世代は、とにかく「おじいさんのランプ」よろしく、あるものが登場し変遷していったさまをことごとく経験してきた世代です。

音楽媒体しかり、コンピューターしかり、ネットしかり。

あるものが登場したら、しばくすると、例えば「ネットネイティブ」や「スマホネイティブ」の人間が誕生・成長してきます。

彼らが歯磨きをするぐらいに簡単に使いこなしている様子も、驚愕の眼差しで目撃してきました。

「大規模言語モデル」の生成AIが、今後どのような形で日常に入り込むのかに、とても興味があります。

正確な回答を導き出すための、質問(プロンプト)などが日常会話のように飛び交っていくのかも知れません。

私の浅い理解でも、テキストを大量に学習し「次の単語を予測する」ことを繰り返すだけの(?)ChatGPT が、何となく知的に受け答えすることの不思議さが実感としてあります。

いわゆる究極の文系タイプのはずなのに、数学を教え込んでいないChatGPTが、数学の問題を解いてしまっているというお話を聞いただけでも、文系と理数系のタイプ分けってそもそもなんだったん?と思ってしまいます。

けれども、ChatGPT って、しれっともっともらしく嘘をつくんですよね。

たとえば、私たちは学習する時、それに値する教科書や専門書を頼りにします。初学者が「どんな参考書がいいのか」と訊くのは正しい初動です。

ChatGPT は、どこで拾ってきたのかと思うぐらいの独創的な内容を出力してくることがあります。読書家なのはわかったけれど、変な本を選んでくるなよという感じです。

これからしばらくは、生成AIへの質問力と得られた回答の真偽の精査力が大切になってきますね。