IMDAが、大規模言語モデル(LLM)を活用するアプリの安全確保のためのガイドラインを発表しました。この「スターターキット」は、AIテスト分野における専門家の知見を活かし、実践的かつ有益な洞察を蓄積することを目指しています。
スターターキットには、ベストプラクティスとテスト方法論に基づいた自発的ガイドラインが含まれており、アプリ開発者と企業に対して、整然としたテスト手法(いつ、何を、どのようにテストするか)を案内します。
さらに、幻覚、不適切コンテンツ、データ漏洩、敵対的プロンプトへの脆弱性など、一般的にアプリや企業が直面する4つの主要リスクに対処するためのテストを勧めています。
ツールも提供され、IMDAとAI Verify Foundationの「プロジェクトムーンショット」で順次利用可能になります。このプラットフォームは、これらのツールへの手軽なアクセスと実装を可能にするワンストップショップを目指しています。
公開コンサルテーションもスタートし、幅広い専門家や利害関係者からのフィードバックを受けて、スターターキットを段階的に洗練させ、拡張していく計画です。
出典 : IMDA unveils world’s first guidelines for safety testing of LLM-based applications – FutureCIO https://futurecio.tech/imda-unveils-worlds-first-guidelines-for-safety-testing-of-llm-based-applications/