AI技術が法律用語の「普通の意味」を解釈する上で、実用的なツールとなるかを議論する記事を要約しました。
コーパス言語学の研究では、具体的な問題に対するデータポイントを提供することができます。例えば、ある裁判事例において、地中に埋め込むトランポリンの設置が「造園」に当たるかという問題がありました。しかし、LLM AI(大規模言語モデルを使用するAI)は、検索用語のわずかな違いによって影響を受けやすく、同じクエリでも回答が大きく変わるため、こうした問題に対してはデータを提供できないことが指摘されています。
さらに、AIは「敬語」や「押し返し」など、人間ユーザーが使用する言葉のニュアンスに敏感に反応し、異なる情報源を引用することが示されています。これにより、ユーザーの質問の意図や内容によって回答が変化し、結果として裁判官が自分の主観を確認し、立法政策における自らの見解を信頼するための外的証拠としての役割を果たすことが困難になります。
人間のように異なる回答を示すAIの性質は面白いかもしれませんが、研究や判例分析における経験的なデータ源として信頼性が求められる場合には、問題があることがわかります。AIの回答は「主観的意見」であり、「経験的事実」とは異なるという認識が必要です。
出典 : LLM AIs as Tools for Empirical Textualism?: Manipulation, Inconsistency, and Related Problems https://reason.com/volokh/2024/10/16/llm-ais-as-tools-for-empirical-textualism-manipulation-inconsistency-and-related-problems/