ChatGPTは嘘をつく?

今年の1月末にChatGPTを知ってから、仕事でもプライベートでも使いまくっています。こういう英語の言い回しはこの業界では一般的に使うの?などの真面目な質問から、どう生きたらいいかわからない、といった検索するにはちょっと重い質問まで、(知恵袋のように「~じゃないんですか、以上。」とか言わず)あらゆる可能性を示しながら真摯に回答してくれる優秀なツールです。

ところが、すでに巷でも指摘されているように、ときにChatGPTは明らかに不正確な回答をしてきます。

たとえば「ダルビッシュ有投手がシカゴ・カブス在籍時にどうやって不調を脱したか」に関する記事を探してほしいと入力しました。

すると、いくつかの記事のタイトルと掲載元の名前を教えてくれました。

しかしこの5つのタイトルを検索窓で調べてみたところ、実在する記事は1つもなかったのです。普段からMLBの英語公式サイトのニュースを読んでいるので、よくありがちなスポーツ記事の見出しだと思いましたし、しかも実在するニュースサイトが出典元として示されていたので最初はこういう記事があるんだと全く疑いもしませんでした。

AIが間違った情報を出力することを人工知能の用語でハルシネーション(hallucination:幻覚)と言うようです。その巧妙さ、それっぽさには驚かされます。

故にChatGPTは堂々と誤った情報を教えてくる、嘘つきだ!と標榜する向きもあるようです。しかしそこに悪意はあるのでしょうか?

私はむしろChatGPTに質問者の意向を汲もうとする姿勢を感じます。それに、ときに冗長とも思える回答からは「何か言わないと質問者に悪いんじゃないか」というどことなく人間っぽい善意すら漂っている気がするです。

もちろん基本的な情報を間違ってほしくはないものです。その一方で、技術が未発達な今しか体験しえないバグもChatGPTの魅力の1つではないかと思います。

追:2月下旬に始まったウマ娘の新シナリオ「グランドマスターズ」では、奇しくも競走馬の三大始祖(ダーレーアラビアンゴドルフィンバルブ、バイアリーターク)の名を冠した3体の「人格を持つ」AIが現れて一緒にトレーニングをします。

プライバシーポリシー