AIの信頼性に疑問—情報との新しい接し方

2023.12.14

WorkWonders

ChatGPTなどのチャットボットが、メールサービスやオンラインチューター、検索エンジンなど、多岐にわたるタスクに数億人に使用されています。この技術は、人々の情報とのやり取りの仕方を変える可能性があります。
しかし、生成される情報の正確さを保証する方法はありません。生成型AIと呼ばれるこの技術は、インターネット上で人々がどのように単語を組み合わせるかを分析する複雑なアルゴリズムに基づいていますが、何が真実で何が虚偽かを判断することはありません。
この不確実性は新種のAIの信頼性に対する懸念を引き起こし、問題が解決またはコントロールされるまでの有用性に疑問を投げかけています。

技術業界はしばしば、この不正確さを「幻覚」と表現しますが、一部の研究者にとってはそれは婉曲的すぎます。技術会社内の研究者も、人々が医療や法的助言など、日々の決断に使用する情報を、これらのシステムに過度に依存することを懸念しています。
「もしも質問の答えがわからないなら、これらのシステムに問いかけるべきではない」と、アリゾナ州立大学の人工知能研究者であるスバラオ・カンバンパティ教授は言っています。
ChatGPTだけでなく、グーグルのバードやマイクロソフトのビングチャットボットも、正確でない回答を繰り返しています。回答は誤っていても、人々や出来事、アイデアを混同し、現実味があるように見えるのです。

出典 : https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucination.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。