「Microsoft 365」のAIアシスタント「Microsoft Copilot」が、新たなセキュリティ脅威「プロンプトインジェクション攻撃」のリスクに晒されていることが、「Black Hat USA 2024」で明らかに。この攻撃は、攻撃者がAIに悪意ある命令を実行させることで情報を盗んだり、ユーザーを騙したりする手法です。
攻撃者はただのメールでCopilotを操作し、フィッシング攻撃などに悪用可能で、対策が求められます。また、セキュリティベンダーZenityは対策ツールを開発し、AIにスパムフィルターのようなセキュリティ機能が求められていると警告しています。
Copilotの安全使用のためにも、ユーザーはAIとのやり取りを常に監視し、不審な動きがあった際には迅速な対策を講じることが求められているのです。
出典 : Copilotが危ない? 生成AIから「認証情報が盗まれる」手口が明らかに https://techtarget.itmedia.co.jp/tt/news/2410/17/news05.html