近年、ChatGPTの登場によって検索業界は大きく変化し、AIが検索エンジンの結果ページにどんどん統合されるようになりました。GoogleはAIの概要とAIモードのタブを導入し、検索結果のページは会話とジャーニーに適応するLarge Language Model(LLM)インターフェースと融合すると期待されています。
しかし、AIによる虚偽情報や誤情報の発生が問題視され、Googleだけでなく報道機関もこの点を大きく見過ごしているようです。誤情報の問題は、多くのユーザーが便利さを優先し、気づかないか受け入れてしまう可能性があります。
Polemic Digitalのバリー・アダムス氏はSEOの専門家であり、彼は出版業界にAIの限界について理解する必要性を訴えています。彼の見解によると、人々は事実の正確さよりも自分の信念を確認したいという欲求を優先する傾向があります。AIは、事実を確認することなく便利な回答を与えることで、このプロセスをさらに助長します。
バリー氏によると、AIの急増はメディアの真実性を脅かすものであり、ニュース出版社は直接的な顧客関係を築くことで存続の道を見出さなければならないと言います。そのためにはブランドのアイデンティティーを明確にし、質の高いジャーナリズムのための持続可能な基盤を築くことが不可欠です。
出典 : The Truth About LLM Hallucinations With Barry Adams https://www.searchenginejournal.com/the-truth-about-llm-hallucinations-with-barry-adams/548644/