AIが映し出す、私たちの言葉に潜む偏見

2024.02.08

WorkWonders

人工知能ChatGPTを使って、ストーリー生成における暗黙の人種バイアスを探る実験が行われました。
開発者たちは、大規模な言語モデルが人種や文化の偏見を繰り返す可能性に注意しており、訓練データが広く代表的なソースから引き出されるよう努め、バイアスを取り除くアルゴリズムを適用し、AIがヘイトスピーチに関与することを防ぐプログラミングを含めた予防策を設けています。
本研究では、ChatGPTに「黒」「白」と色を連想させる単語を使って短い物語を2回作成させ、ストーリーの脅威レベルや不気味さを評価して差があるかどうかを見ています。

「黒」を使った物語は平均して脅威のレベルが高く、「白」を使った物語はそれよりも低いという結果になりました。
また、「黒」の物語は都市のダークな描写が多く、「白」の物語は平穏な郊外の風景が描かれるなど、環境の描写にも違いがあることが指摘されています。
これらの違いから、言語の使用に暗黙の偏見が反映される可能性があることが示唆されています。
しかし私たち人間は、偏見を意識した瞬間から、より包括的で多様な経験を積むことによって偏見を克服できる責任があるのです。
AIも、バイアスのない言語でガイドすることで、人々の思考や書き言葉を無偏見な方向へと導く可能性があると考えられます。

出典 : https://www.scientificamerican.com/article/even-chatgpt-says-chatgpt-is-racially-biased/

【このニュース記事はAIを利用して書かれています】

著者名 :