言語モデルのバイアスを浮き彫りにする「シェード」というデータセットが誕生しました。英語で訓練されたモデルのバイアスを見逃す問題に対処するため、16言語を含んでおり、多様な文化や社会背景に基づいたステレオタイプの特定を可能にします。
AIスタートアップのハギング・フェイス社が主導し、自動生成されたプロンプトを使ってモデルの反応を検証。バイアススコアを算出し、AIが無意識のうちにステレオタイプを増幅させる様子を明らかにします。
この取り組みは、AI技術の倫理的な使用と、より公平な社会の実現に向けた一歩として、国際的な研究会議でも紹介される予定です。
出典 : 16言語に対応、LLMに潜むバイアスを探るデータセット https://www.technologyreview.jp/s/360962/this-data-set-helps-researchers-spot-harmful-stereotypes-in-llms/