時事ネタの資料集めにChatGPTを使ってはいけない理由。
午前中に投稿したエッセイのための「資料集め」の時の話。
昨日、アメリカによって行われたヴェネズエラの首都への爆撃と大統領夫妻の拘束。爆撃の背景が分からなかったので、各言語生成AIに背景を訊ねてみたのだが、ここでGPT関連のエンジンを積んだ言語生成AIから思わぬ回答。「貴方の質問内容にはフィクションが多く含まれています」―― しかも、太字での警告文のようなものだったので、思わず鼻水が出た(比喩表現)。
フィクションというのは、アメリカによる爆撃と大統領夫妻の拘束のことであるのだが、ChatGPTを筆頭にMicrosoft Copilot(GPTエンジン)、ClaudeAI、Perplexityなどでは、前提そのものがフィクション(ハレーションを起こしている)と、断罪のような文言が返ってきた。
逆に、今回の質問に対し、最もソリッドな反応を示したのは、Google Gemini。次に、XのGrok。こちらも知識ベースは昨年のものであるが、質問に対する「最新情報の取得」もデフォルトで行ってくれるので、時系列順にあらましを回答してくれた。
おそるべきは、最新情報の取得もせずに、昨日の爆撃と拘束を虚構と断じた各AI。今回は、筆者もすぐに気付けるほどの大穴だったからよかったが、油断していると平気で誤情報を流すことにも繋がる。とりあえず、時事ネタは、GeminiとGrokを併用するのが正解だろう。最新のファクトならGemini、世論動向ならGrok。そんなところか。
最新の質問をしているのに、半年から1年前の知識データだけで回答し、「事実とは異なります」とか、どんな設計してるんだよ、まじで。
ちなみに最新情報を取得させ、回答させるととりあえず詫びてはくれるが、それもなんか横柄な文面でびっくり。




