AIの“幻覚”が招くリスクとは?

2024.11.01

WorkWonders

生成AIの技術は日々進化していますが、”ハルシネーション”と呼ばれる問題があります。
それは、AIが事実ではない情報を本当のことのように出力してしまう現象です。
特に医療現場で誤った情報が出された場合、その影響は計り知れません。
AI企業は対策に取り組んでいますが、完全な解決には至っていません。
人間がチェックすることでリスクを回避している現状ですが、常に注意が必要です。
OpenAI社はこのAI技術をさまざまなアプリケーションに応用しており、
その一つ「Whisper」では音声認識の精度が飛躍的に向上しましたが、
それでもなお、誤った内容を含む出力リスクは存在します。
AIの正確性に関する研究やユーザーの体験を基に、AIの進化と共にリスクへの意識を高めることが求められています。

出典 : 診察記録の音声テキスト化で起きた生成AIのあり得ない捏造、死を招く「ハルシネーション」をどう防ぐ? 【生成AI事件簿】その文字起こし、AIに任せて大丈夫? | JBpress (ジェイビープレス) https://jbpress.ismedia.jp/articles/-/84104

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください