AIによる危険な「幻覚」、セキュリティリスクは避けられるか?

2025.04.22

WorkWonders

Help Net Securityが公開したセキュリティニュースレビューによれば、新たなサプライチェーン攻撃として「スロップスクワッティング」が認識されています。この攻撃では、AIが実在しないコードパッケージを作り出す「幻覚」を利用し、攻撃者がこれを事前に登録して悪意あるコードを仕込む可能性があります。
特に大規模言語モデル(LLM)は高い割合でこの「幻覚」を起こし、開発者がAIの提案を鵜呑みにすることで、アプリケーションに危険が及ぶリスクが指摘されています。

セキュリティ企業Socketは、開発者はAIの幻覚に惑わされず、パッケージの存在と信頼性をしっかりと確認する必要があると警告しています。また、企業は開発者教育にも力を入れ、AIとの共存方法を模索すべきです。
AIの急速な進展が私たちの安全を脅かすことなく、より良い開発環境を提供するためには、技術者だけでなく一般のユーザーもセキュリティについての理解を深めなければなりません。

出典 : LLMパッケージの幻覚がサプライチェーンを脅かす:スロップスクワッティングという新たな脅威 – イノベトピア https://innovatopia.jp/cyber-security/cyber-security-news/52085/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓