Help Net Securityのインタビューで、モトリーフールのアプリケーション&クラウドセキュリティディレクター、パオロ・デル・ムンド氏は、プロンプトインジェクションやデータ漏洩などのGenAI特有のリスクを軽減するためのガイドレールの実装により、組織がAIの使用をスケーリングする方法について議論しています。
組織はリスクを管理するために、特に入出力の取り扱いや微調整の実践を行いながら、GenAI機能が普及するにつれてガイドレールを設けなければならないと彼は説明します。これらの対策を早期に確立することで、革新を損なうことなく安全でコンプライアンスに準拠した採用を確保できると述べています。
GenAI機能を既に導入しているチームは、最初に何を監査またはチェックすべきかについて、新しい脅威モデルを見落としやすいと述べ、新たなセキュリティの専門家は今回の新しい脆弱性クラスについて学び、それに対抗する方法を理解することから始めるべきだとアドバイスしています。
さらに、ArmorCodeの調査によると、AIツールで問題を経験したAppSecリーダーの92%が不安なコード、83%が透明性の欠如を主な懸念事項として挙げている一方で、全回答者の55%がGenAIベースの脅威を最大の懸念としています。
安全なAIの実装や継続的な監視、教育を含む、組織が責任を持ってGenAIを使用するためのベストプラクティスについても、入力/出力の検査、変更管理プロセスの実施、リスクの高い内容のスキャンなど、詳細なガイドラインが提供されています。
出典 : Before scaling GenAI, map your LLM usage and risk zones https://www.helpnetsecurity.com/2025/06/17/paolo-del-mundo-the-motley-fool-ai-usage-guardrails/