現代のAIシステム、特に大規模言語モデル(LLM)は、私たちの社会に大きな影響を与える可能性があります。
人間に似た文章や推薦を生成できるこれらのシステムは、政治的な偏見を持っていることが最新の研究で明らかになっています。
このレポートでは、LLMが生成するテキストと米国議員の言葉とを比較するなど、異なる4つの方法を用いてAIの政治的バイアスを測定しています。
その結果、ほとんどのAIシステムが左寄りのバイアスを持っており、これが社会にどのような影響を与えるのかについても考察されています。
AIの開発者たちは、バイアスを解消し、中立性を保つよう努める必要があり、そのための具体的な提言もされています。
この興味深い研究を潜在的なリスクと共に紹介し、高校生から専門家まで、多くの人々に知ってもらいたいと思います。
出典 : Measuring Political Preferences in AI Systems https://manhattan.institute/article/measuring-political-preferences-in-ai-systems-an-integrative-approach