大規模言語モデルのリスク:インターネットの誤情報が学習データに及ぼす影響

2025.01.10

WorkWonders

インターネットは誤情報で溢れており、多くの大規模言語モデル(LLM)は、このようなテキストを基にした学習を行っています。それでは、正確な情報が多ければ多いほど、偽情報を圧倒できるのでしょうか?
ニューヨーク大学の研究チームが、医療情報をどれだけLLMの学習データに含めると誤った回答を導き出すか調査しました。結果、学習データのわずか0.001%でも誤情報が含まれるとLLMは影響を受けることが明らかになりました。

この研究は、学習プロセスにおいて意図的に「毒」を盛るような場合に焦点を当てていますが、既存のLLMの学習セットに含まれるインターネット上の誤情報や、古くなった情報がメディカルデータベースに残る問題にも関連しています。
データ毒物と呼ばれるこの問題は、インターネット上の文章からLLMを学習させる際、意図的に特定の情報を注入することで、LLMがその情報を事実として受け入れる原因となります。この手法は、単にウェブにドキュメントを配置するだけで達成可能です。
「LLMの誤情報 – インターネットがもたらす影響を探る」では、わたしたちの情報生活と人工知能の未来に関する重要な議論を提起しています。

出典 : It’s remarkably easy to inject new medical misinformation into LLMs https://arstechnica.com/science/2025/01/its-remarkably-easy-to-inject-new-medical-misinformation-into-llms/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

【お知らせ】
弊社ワークワンダース社主催ウェビナーのご案内です。


経営者/管理職のため30分でわかる「生成AIはじめの一歩」ショートセミナー


【日時】
2025年3月18日 15時30分~16時+質疑

【募集人数】
30名

【セミナーの内容】

1. 生成AIの利活用についての日本の現状
生成AIは、世界中でその可能性が模索されていますが、日本においてはまだその利活用が限定的であることが指摘されています。日本企業は新しい技術の導入に対するリスク評価が慎重なためです。

2. 何に使える?生成AI
生成AIは、その名前の通り、新たなデータや情報を生成する能力を持っていますが、業務への適用という点においては、大きく7つの能力を有しています。 この7つの能力を適切に用いることで、企業は生産性を大きく向上させることができます。

3. 生成AIの導入手続き
大きな生産性向上が見込まれる生成AIですが、適切に導入するためには、いくつかの注意点があります。 まず、企業は生成AIの導入目的を明確にする必要があります。次に、導入に際しての課題やリスクを評価し、適用する業務を決定します。 その後、パイロットプロジェクトを通じて実際の運用環境下でのテストを行い、フィードバックを基に改善を図ります。 最後に、全社的な展開を行うことで、生成AIの効果を最大化できます。 この際に、適切な従業員教育を施すことで、生成AIの導入効果は飛躍的に向上します。

質疑応答
生成AIに関する疑問や不安を解消するために、参加者からの質問を受け付けます。

ご参加は以下のリンクからお申込みください。
▶ ウェビナーお申込みページはこちら