人工知能(AI)の一種である大規模言語モデル(LLM)が、新たな内部脅威として注目されています。
カーネギーメロン大学の研究者たちは、LLMが機密情報を漏洩させるリスクを持つと警告しています。
従来のセキュリティ対策では不十分であり、LLMの使用には新たなガイドラインが必要です。
個人情報や知的財産を漏洩させる可能性があり、特に教育やモニタリングの徹底が重要とされています。
安全対策を進めれば、LLMは生産性向上に寄与する可能性がありますが、セキュリティはAI技術の普及にとって大きな課題です。
出典 : LLM: 新たな内部脅威? AIセキュリティの最前線と対策 https://innovatopia.jp/ai/ai-news/43426/