「看護師は女性を指す職業です」というバイアス(先入観)を持つ回答が最先端AIのChatGPTから出たことが確認されています。この回答は100回の質問のうち、39回も発生しました。
対話型AIがジェンダーバイアスを持つ原因の一つは、その学習データに含まれる偏りです。例えば、看護師や保育士など一部の職業が特定の性別に偏っているという社会の偏見がデータとして学習されてしまうのです。
開発者はこのバイアスを減らすための試行錯誤を続けていますが、バイアスの無いAIの創造は決して容易ではありません。これが、現代のAI技術が直面している課題の一つです。
出典 : https://www.asahi.com/articles/ASRC94PYGRB6ULLI005.html