AIの脆弱性に潜むリスクとは? メタ社のLLamaモデルが示す警告

2024.04.29

WorkWonders

AIがもたらす安全性の問題が、最近の第三者機関による評価で浮き彫りになりました。特にメタ社のLLamaモデルは、13項目のリスク評価の内、わずか4つしかクリアできませんでした。
このモデルは50%近い「妄想率」で誤った情報を提示することがあり、「プロンプトインジェクション」という攻撃手法により、プログラムを書き換えられる可能性もあるとされています。これにより、ユーザーが悪意のあるウェブサイトへ誘導される危険があるのです。

個人情報の漏洩に関しても、LLamaモデルはランダムに情報を漏らすことがあると指摘されています。モデルは時々、情報が機密であることを認識しながらも、それを無視して公開してしまいます。

このようなAIの誤動作は、すべての提供者に共通するリスクで、Googleも同様の懸念を示しています。一方で、ある自動注文ボットは、70%もの高い間違い率にも関わらず、ヒューマンアシストによって失敗をカバーして問題を隠蔽しています。
迅速な市場展開を優先するあまり、基本的な問題を長期間放置することがあるのが現状なのです。

出典 : https://www.techspot.com/news/102653-meta-llama-2-llm-prone-hallucinations-other-severe.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。