オックスフォード研究チームが提唱するLLMsの法的責任と正確性

2024.08.09

WorkWonders

Science Xの編集プロセスに基づき検討された新たな論文によると、オックスフォード大学の倫理学者たちは、LLM(大規模言語モデル)の製造者がユーザーからの問い合わせに対する回答の正確さについて、法的責任を負うべきかどうか疑問を投げかけています。
製造者には、ユーザーが受け取った回答の正確性を判断するための機能を追加するべきだと彼らは指摘しています。例えば、回答に引用を含めるなどの機能を追加することで、ユーザーが回答の信頼性をより理解できるようにすることです。

特に、LLMは教育やビジネス、政府機関などでの使用が検討されており、時には間違った回答をすることもあります。研究チームは、LLMの製造者がより責任を持つべきだと提唱しています。現時点で技術的に正確で合理的な答えのみを提供することはできませんが、それにもかかわらず製造者が責任から免れるべきではないと彼らは主張します。

また、保健医療のようにリスクが高い分野で使用されるLLMは、正確性を大幅に向上させるために、専門的な学術雑誌のような実用的なデータでのみ訓練されるべきだと提案しています。LMMの正確性向上のための新たな道筋を示す彼らの研究は、情報源としてより一般的になるにつれて重要性を増す可能性があります。

出典 : Ethicists wonder if LLM makers have a legal duty to ensure reliability https://techxplore.com/news/2024-08-ethicists-llm-makers-legal-duty.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください