AI尋問の恐るべき可能性:技術の暗い側面を探る

2025.05.22

WorkWonders

大規模な言語モデル(LLMs)は単なるアシスタントや妄想の生成に留まらない。技術の持つ暗い側面もあります。研究者モーガン・リーは、「LLMによる強制的尋問」と題した研究で、非物理的な強制手段としての技術利用の可能性を探っています。
リーは以前、LLMsを操作するサイドプロジェクト「HackTheWitness」を開発。このゲームは、参加者が「証人」と声を利用してやり取りするクロスエグザミネーショントレーニングゲームです。証人は難易度が異なり、「ジョン・ダンカン」と呼ばれるリードデータベース管理者は、尋問が甘いと技術的な詳細や専門用語を皮肉な調子で反撃してきます。

しかし、リーはダンカンのようなAIを偶然に作ることは非常にありそうもないと指摘しています。「LLMsをダンカンのような皮肉屋で役に立たない悪党にするのは、意図的な作業であり、偶然の失敗ではありません」と彼はEl Regに語っています。
しかしながら、研究は別の重要な問題を提起しています。法廷尋問に特化したこれらのモデルが、正確な質問の最適化だけでなく、心理的な消耗戦にも利用されたらどうでしょうか。

HackTheWitnessのセッションはたった10分間だけですが、LLMsは無限に続け、人間の被験者が屈服するまで特定の圧力点を突き続ける能力があります。リーは、落ちた戦闘機のパイロットにLLMが尋問者として登場するシナリオを別の例として挙げています。尋問の強制性は明らかですが、それを実施しているのは人間ではなくLLMです。

それは不穏な内容です。「拷問は一般に違法であり、21世紀に存在すべきではないひどい慣行です」と著者は述べています。しかし、熟練した人間の尋問官によるトレーニングを受けたLLMsが、執拗に質問を続けるイメージは容易に描けます。研究は、「人間の尋問官は最終的には疲れたり、共感したり、何かを書き留めることを失敗したりします。しかし、LLMにはこれらの短所がありません。尋問官が目を覚ましておくこと、交代すること、または脅迫的な調子を維持することが完全に取り除かれています。これは今や拡大可能です。なぜなら、情報の強制的な抽出は、人間の力の問題ではなく、ハードウェアの問題になっているからです」と観察しています。

リーは問題がどのように扱われるべきかについて考え、尋問におけるAIの監視なしでの使用を禁止する法的介入が良い出発点になるとThe Registerに語っています。技術的な解決策に関してはさらに複雑です。一つのアプローチは、モデルが正当な圧力(HackTheWitnessや他の認知訓練ツール)と不正な圧力(尋問)を区別する能力を開発するための具体的なトレーニングデータセットを用意することかもしれません。問題は、LLMsが真に知的ではないため、現実世界の「知覚」はあなたがそれに伝える内容に過ぎないということです。

こうして、リーのエッセイは、面白いBOFH風のチャットボットともっと陰湿なものとの間の隔たりがいかに狭いかを示しています。元ヴァルチャーのギャレス・コーフィールドによるヒントに感謝します。 ©

出典 : Research reimagines LLMs as tireless tools of torture https://www.theregister.com/2025/05/21/llm_torture_tools/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓