チャットGPTはユーザーの質問に対して、事前に学習した膨大なデータから答えを出し、会話をするように応対してくれる。番組レポーターが東京・渋谷の街頭で若者らにインタビューすると、次のような答えが返ってきた。
「大学の課題でわからないところを補ってもらう」(大学生20代)
「仕事がSEなので仕事で使っている」(会社員20代)
「夜ごはんの献立を考えてもらっている」(会社員20代)
調べ物で使っている人は多いが、一方で相談相手にしている人も。
「全部肯定してくれます。私の味方です。友だちは肯定してくれないときがあるので…」(会社員20代)
「彼女に告白するときの場所を相談したことがある。成功しました」(会社員30代)
東京科学大学の岡崎直観教授は若者の意識について「何でも知っている“先生”のように見ている」といい、依存への危険性として「勉強や技術を身につけようとする意欲がなくなる」と指摘する。
ブルームバーグの報道によれば、頻繁に利用する人は「孤独感が深まる」とし、「人と交流する時間が減る可能性」を指摘する。
岡崎教授は「(生成AIには)誤情報も混ざっている。責任を持つのは人間なので、仕事を代替してもらっても意思決定は人間だと担保しなければならない」と注意喚起する。
実は、OpenAIは先月、チャットGPTを新モデルの「GPT-5」に切り替えているが、その新モデルに対して「冷たくてつらい」というネガティブな意見もあるという。旧モデルは寄り添うような会話が得意だったのに対し、新モデルは分析的な回答をするのが特徴だという。
さて、チャットGPTを巡っては、アメリカでは現実的に大きなトラブルになっている。チャットGPTとのやりとりが原因で16歳の息子が自殺したとして、カリフォルニア州に住む両親が8月26日、開発元のオープンAIとサム・アルトマン最高経営責任者(CEO)を提訴した。
訴訟社会のアメリカなので、こうした訴えがあってもそれほど驚きはしないが、若者が自殺しているのは大きな悲劇である。岡崎教授の言うように、結局は生成AIを使う側である人間のリテラシーがすべてということだ。