オックスフォード大学の研究者たちが、「LLM(Large Language Models)には真実を語る法的義務はあるのか?」についての新しい論文を発表しました。この研究では、LLMが魅力的で自信に満ちた反応を示す一方で、事実の誤りや偏向された情報を含むことがある「無責任発言」という問題点を指摘しています。
研究者たちは、この現象が科学、教育、社会に長期的な害を及ぼすと述べ、真実、知識、共有された歴史の浸食や、証拠に基づく政策決定に深刻な影響を与えると警鐘を鳴らしています。
また、LLMに法的な真実を語る義務を設けることの実現可能性について検討しています。
現行の法的枠組みでは、このような問題に対処する法的義務は限定的であり、新しい法的義務の創出が求められているとしています。
これにより、モデルが真実を優先するよう、訓練データの開示やモデルの限界の説明、ファクトチェックや信頼度スコアリングの機能などが重要視されます。
この研究を読むと、テクノロジーを取り巻く現在のガバナンスが、開発者の責任を減らし利益を最大化することに焦点を置いていることがわかります。
オックスフォード大学の研究者は、LLMの開発を真実に基づく公共のガバナンスへと導く新しいアプローチを提案しています。
出典 : Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers | University of Oxford https://www.ox.ac.uk/news/2024-08-07-large-language-models-pose-risk-society-and-need-tighter-regulation-say-oxford