AI技術が進展し、特にTransformerベースのテキスト生成AIは、次の単語を予測して文を作成します。
これは、「正しい」よりも「もっともらしい」文を目指すため、知的な対話が可能となる一方で、正確な情報が得られるとは限らないという問題があります。
たとえば、AIが存在しない法案や判例について誤った情報を提供することもありえます。
これを「ハルシネーション」の問題といい、あたかも正しい情報であるかのように錯覚させます。
実際、あるAIは存在しない「名探偵コナン似キャラ訴訟」について言及し、そのリアリティに利用者が惑わされました。
生成AIが発信する情報には慎重でなければならず、誤解を招く表現には注意が必要です。
間違いを見抜く力が、AIの時代を生きる私たちには求められています。
出典 : 嘘を嘘だと見抜けないと生成AIを使うのは難しい(栗原潔) – エキスパート https://news.yahoo.co.jp/expert/articles/658dd290c7c300ad132369696aa6ad85cfc5684e