Scale AI社とOutlierは、AIモデルのトレーニングデータのラベリングをめぐり、労働者の精神衛生を保護する義務を怠ったとして訴えられました。
これらの会社は、AIから生じる有害なコンテンツから人々を守るために雇用された独立請負業者に、暴力的で害を及ぼすコンテンツに対応することを要求しましたが、その対価として適切な保護措置を講じていなかったとされています。
特に、危険な入力プロンプトの識別や有害性に基づくスコアリングなど、AIモデル用のデータ作成に関わる人々は、摂取する無数の画像やテキストによって精神的苦痛や機能障害、不安、悪夢などの症状を発症するリスクにさらされています。
この問題に対処するため、被害者たちは損害賠償と労働者の精神衛生を監視する仕組みの導入を求めています。
また、既にMicrosoftやFacebookにおける類似の訴訟も発生しており、オンライン上での過激なコンテンツにさらされる作業が正当な配慮を受けていない現状が浮き彫りにされています。
出典 : Scale AI, Outlier sued over mental toll of AI model safety https://www.theregister.com/2025/01/24/scale_ai_outlier_sued_over/