今、AIは私たちのデータを守るための新たな方法を必要としています。MITの研究科学者アンドレイ・バルブ氏は、AIが抱えるデータ漏えいの問題とその対策について説明しました。
人間はお互いに教え合い、秘密を共有することができますが、現在のAIはそのような秘密を保持することに課題があります。彼は、プロンプト注入攻撃というデータ漏えいの問題を特定する手法や、「LORA」と呼ばれるマイクロソフトが開発した新しいファインチューニング方法を紹介しました。
この方法では、AIの重みを直接更新するのではなく、変化を追跡し、重みの大きな行列を小さな行列に分けてパラメータを隔離します。さらに、AIのセキュリティを向上させるために、「情報の知識」と「情報の無知」をラベリングすることで、問題の所在を明確にすることが大切だとバルブ氏は言います。
将来的には、ネットワーク上で機密情報を探し出し、入力を提供するツールを利用して、健康保護データの漏えいのような問題を解決することが期待されています。
高度なセキュリティ対策として、ユーザーがアクセスできるべきでないパラメータを隔離することで、あらゆる攻撃から完全に免れたAIモデルの構築も可能になるでしょう。
出典 : https://www.forbes.com/sites/johnwerner/2024/06/08/research-scientist-andrei-barbu-gives-us-input-on-llm-design/