AIのセキュリティリスクに警鐘!プライベートモデルも安全ではない

2024.06.02

WorkWonders

プライベートな大規模言語モデル(LLM)をビジネスデータの検索可能な会話インターフェースに使っている企業が、適切にセキュリティ対策を講じなければ、データ汚染や漏洩のリスクに直面しています。

例えば、この週には、SynopsysがAIプロバイダのSamurAIが作成したEmbedAIコンポーネントに基づくアプリケーションを影響するクロスサイトリクエストフォージェリ(CSRF)の欠陥を発表しました。これにより、攻撃者はユーザーを騙してLLMに有毒なデータをアップロードさせることが可能です。

米国内でAIをビジネスオペレーションに取り入れている企業は全体の4%に過ぎませんが、特定の業界ではその採用率が高くなっています。セキュリティ研究者は、AIの統合後も継続的なテストが必要だと警告しており、ソフトウェアのコンポーネントやツールには脆弱性が存在するため、攻撃者はこれらを突いて攻撃を仕掛ける可能性があるとしています。

開発者はデータの分割管理やLLMへの制限付きアクセス、ソフトウェアの定期更新と厳格なコントロールの実装が必要です。

出典 : https://www.darkreading.com/application-security/flawed-ai-tools-create-worries-for-private-llms-chatbots

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください