AI技術が普及する中で、多くのAIシステムが失敗を繰り返しています。これには、女性に偏見を持つクレジットスコアリングや、色の濃い人を誤認識するコンピュータビジョン、暴力的な内容を推奨するパーソナライズシステムなどがあります。AIシステムは伝統的なソフトウェアと異なり、随時更新が必要であり、その安全性を確保するためには新たなアイデアが求められています。
パートナーシップ・オン・AI(PAI)によって設立されたAIインシデントデータベース(AIID)は、実際に起きたAIシステムの失敗例を集めた貴重な知識のリポジトリです。開発者や製品マネージャーは、過去の事例を調べることで、新たなAIシステムの導入時に何を注意すべきかを検討するための参考にしています。
このデータベースは、AIの公平性や安全性に関する研究の引用資料としても利用され、将来的にはAIインシデントの自動監視システムの開発も目指されています。オープンソースプロジェクトとしても公開されており、多くの人々がAIIDの改善に寄与することが可能です。AIが引き起こす問題を減らし、その可能性を広げるために、AIIDは今、新しいステップを踏み出しています。
出典 : The AI Incident Database wants to improve the safety of machine learning – TechTalks https://bdtechtalks.com/2021/01/14/ai-incident-database/