数ヶ月前、あるフィンテック企業のプラットフォームエンジニアが、オープンAIをTerraformパイプラインに組み込みました。公然と行ったこの行為は、クラウドリソースの自動タグ付けにおいて、社内で開発されたものよりも効果的で速かったのです。しかし、セキュリティチームがこれに気づくと、監査の恐怖、リスクレビュー、そして承認を取り直すという状況に。このようなことはよくある話です。
大規模言語モデル(LLMs)やGenAIシステムを、承認なしで生産ワークフローに統合することは「シャドウAI」として知られ、大きなリスクを伴います。開発者は顧客データをリアルタイムでテストしたり、外部APIをコールしたり、セキュリティやガバナンスに通知することなくモデルをチューニングし、GPUクラスターに展開することがあります。
企業は徐々にこの問題に対応し始めています。AIの使用状況を検出し、政策に沿った安全なやり方でイノベーションを阻害せずに管理する方法などが模索されています。しかし、開発者からの革新を引き出すためには、単なるブロックではなく、実験や安全な範囲内でのAI使用を可能にするような方策が必要です。
出典 : The New Shadow IT: LLMs in the Wild https://thenewstack.io/the-new-shadow-it-llms-in-the-wild/