開発者の隠れた行動:未承認のAI導入とそのリスク

2025.05.09

WorkWonders

数ヶ月前、あるフィンテック企業のプラットフォームエンジニアが、オープンAIをTerraformパイプラインに組み込みました。公然と行ったこの行為は、クラウドリソースの自動タグ付けにおいて、社内で開発されたものよりも効果的で速かったのです。しかし、セキュリティチームがこれに気づくと、監査の恐怖、リスクレビュー、そして承認を取り直すという状況に。このようなことはよくある話です。

大規模言語モデル(LLMs)やGenAIシステムを、承認なしで生産ワークフローに統合することは「シャドウAI」として知られ、大きなリスクを伴います。開発者は顧客データをリアルタイムでテストしたり、外部APIをコールしたり、セキュリティやガバナンスに通知することなくモデルをチューニングし、GPUクラスターに展開することがあります。

企業は徐々にこの問題に対応し始めています。AIの使用状況を検出し、政策に沿った安全なやり方でイノベーションを阻害せずに管理する方法などが模索されています。しかし、開発者からの革新を引き出すためには、単なるブロックではなく、実験や安全な範囲内でのAI使用を可能にするような方策が必要です。

出典 : The New Shadow IT: LLMs in the Wild https://thenewstack.io/the-new-shadow-it-llms-in-the-wild/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓