AIが映し出す、私たちの言葉に潜む偏見

2024.02.08

WorkWonders

人工知能ChatGPTを使って、ストーリー生成における暗黙の人種バイアスを探る実験が行われました。
開発者たちは、大規模な言語モデルが人種や文化の偏見を繰り返す可能性に注意しており、訓練データが広く代表的なソースから引き出されるよう努め、バイアスを取り除くアルゴリズムを適用し、AIがヘイトスピーチに関与することを防ぐプログラミングを含めた予防策を設けています。
本研究では、ChatGPTに「黒」「白」と色を連想させる単語を使って短い物語を2回作成させ、ストーリーの脅威レベルや不気味さを評価して差があるかどうかを見ています。

「黒」を使った物語は平均して脅威のレベルが高く、「白」を使った物語はそれよりも低いという結果になりました。
また、「黒」の物語は都市のダークな描写が多く、「白」の物語は平穏な郊外の風景が描かれるなど、環境の描写にも違いがあることが指摘されています。
これらの違いから、言語の使用に暗黙の偏見が反映される可能性があることが示唆されています。
しかし私たち人間は、偏見を意識した瞬間から、より包括的で多様な経験を積むことによって偏見を克服できる責任があるのです。
AIも、バイアスのない言語でガイドすることで、人々の思考や書き言葉を無偏見な方向へと導く可能性があると考えられます。

出典 : https://www.scientificamerican.com/article/even-chatgpt-says-chatgpt-is-racially-biased/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

【お知らせ】
弊社ワークワンダース社主催ウェビナーのご案内です。


<2025年1月21日実施セミナー>

生産性を爆上げする、「生成AI導入」と「AI人材育成」のコツ


【内容】
1. 生産性を爆上げするAI活用術(安達裕哉:ワークワンダース株式会社 代表取締役CEO)
2. 成功事例の紹介:他業種からAI人材への転身(梅田悟司:ワークワンダース株式会社CPO)
3. 生成AI導入推進・人材育成プログラム「Q&Ai」の全貌(元田宇亮:生成AI研修プログラム「Q&Ai」事業責任者)
4. 質疑応答



日時:
2025/1/21(火) 16:00-17:30

参加費:無料  
Zoomビデオ会議(ログイン不要)を介してストリーミング配信となります。



お申込み・詳細 こちらウェビナーお申込みページをご覧ください

(2024/12/11更新)