カンニングにも悪用される生成AI その手口は?最新の防止対策と合わせて解説

2025.06.17

ワークワンダース 編集部

1. 生成AIとカンニング:現代教育における新たな挑戦

近年、生成AIの進化が目覚ましく、教育場面でも活用が進む一方で、カンニングの手段として不正利用される危険性が指摘されています。特にChatGPTのような自然言語処理モデルは、人間の文章に非常に近い文面を一瞬で作り出せることから、学校や入試における不正行為を助長する可能性があると懸念を集めています。

しかし実際には、生成AI自体を上手く活用すれば、生徒一人ひとりに合わせた学習サポートが提供できるなど、教育技術の発展に大きく寄与する側面もあるため、利用と規制のバランスを考えることが必要です。

一方、オンライン試験の普及や遠隔学習の増加に伴い、不正行為が行われやすい環境が整ってきたことも見逃せません。特に新型コロナウイルスの影響で就職活動がWeb化し、企業のオンライン試験で45%もの受験者が何らかのカンニングを実行したという調査結果もあります。そこでは従来の“替え玉受験”だけでなく、生成AIを駆使して回答を作成する手口が増えていることが明らかになりました。

オンライン試験の利便性は高いですが、同時に試験監督の目が届きにくいことから、AIカンニング対策やAI監視技術が急務となっています。

ただ、生成AIは決して“一方的に悪”というわけではありません。たとえば、正規の活用方法として、生徒が自宅学習の際にChatGPTなどを使えば、自分が理解しづらい箇所を短時間で確認できます。さらに、学習ツールとして使うことで独自のアイデアを得られる場面も多いのです。主観的な評価やパフォーマンスベースの評価を取り入れれば、不正行為をしにくくしつつ、生成AIによって得られた知識を適切に定着させる工夫もできるでしょう。

こうした状況を踏まえて、現代の教育現場やオンライン試験では、生成AIの持つポジティブな効果と不正行為防止策をどう両立させるかが重要です。AI倫理問題や教育の公平性を守る仕組みを同時に考えていかなければ、テクノロジーの恩恵を最大限に享受することは難しくなります。

2. 驚きの対策:中国の画像認識機能停止とその影響

中国の全国統一大学入試(高考)は、毎年1,000万人以上の受験生が未来をかけて挑む非常に重要な試験です。その高考の期間中に、大手の生成AIサービスが一時的に画像認識機能を停止したというニュースは、世界中のテクノロジー愛好家や教育関係者を驚かせました。

AI画像認識の停止という措置は、受験生が問題用紙を撮影し、その場でAIに解答を求める可能性を断ち切るための自主規制でした。最近の生成AIツールなら画像から数式や文章を読み取り、短時間で正解を提示できるため、中国当局は企業に自主規制を促したのです。

この対策は高考の公平性を維持するうえで有効ですが、一般ユーザーが画像認識AIを使いたいときには不便を強いられたという声もありました。しかし、生成AI規制のモデルケースとして世界的に注目を集める結果となり、他国でも同様のルール整備が加速しています。

実際、AIを利用した不正行為は問題をAI学習ツールに読み込ませるだけにとどまらず、受験生同士が生成AIを介して回答を共有したり、オンラインで偽装された受験プロセスを行うなど多様な手口があります。このため、試験監督AIなどを含めた総合的な対策が今後さらに進化していくと予測されます。

3. 教育評価における生成AIの利用とその正確性

生成AIはカンニング対策だけでなく、教育評価にも大きな可能性を秘めています。たとえば、作文や小論文の評価にAIを活用し、文章構成や論理の一貫性を検出するシステムを構築すれば、教師の負担を軽減しつつ大量の学生を公平に評価できます。

しかし、AIの分析だけで全てを自動化するのは危険です。AIは過去のデータを学習しているため、現実世界の多様なコンテクストを完全に把握できません。学習者の個性や思考過程を捉えるには、人間の教師の洞察力とAIの自動評価を組み合わせたハイブリッドな仕組みが必要です。

また、公平性維持のためには、偏りのないデータセットと継続的なシステム評価が不可欠です。AI評価だけに頼らず、口頭試問やグループ討議など多角的な評価を併用することが望ましいでしょう。

さらに、オンライン就活試験などで生成AIを使った不正が見抜かれず内定に至った事例もあり、企業と教育機関が連携して実力を正しく判定できる仕組みを共同で検討する必要があります。

4. 不正行為への新アプローチ:AI検出と防止戦略

不正行為に対抗するには、AIによるカンニング検出と迅速な対処が欠かせません。具体的には、テスト画面に接続された不審なアプリを検知するソフトや、本人確認の顔認証システム、疑わしい挙動を自動アラートする試験監督AIなどが注目を集めています。

しかし、“不正を助長する技術”と“不正を検出する技術”のいたちごっこは続いており、一度設定した仕組みで安心できるわけではありません。生成AIで作成された文章を検出するAIもありますが、言語モデルの進化に追いつくには絶え間ないアップデートが必要です。

また、技術対策だけでは学生のモラルや学習動機を変えられないため、教師は試験を「思考を深める場」と位置づけるアセスメント・フォー・ラーニングやパフォーマンスベース評価を導入し、不正のインセンティブを下げる工夫が重要です。

具体策として、主観的な問いや多段階の思考プロセスを要する出題を強化し、単純にAIに解答させるだけでは対応できない仕組みを構築することが有効です。

5. 教育の公平性を守るための技術革新と課題

先端技術を教育現場で活用する際は、必ず公平性を意識しなければなりません。大規模オンライン試験や全国統一入試では、全受験者が公平に評価されるシステム整備が社会の信頼維持につながります。

中国の高考における画像認識停止は一例ですが、今後は試験監督AIや検出ツールの高度化に加え、教育AIプラットフォーム利用の拡大が進むと予想されます。

同時に、プライバシー保護や情報管理の明確なルールづくりも不可欠です。AI化が進むほど、社会全体の議論や法制度、学習者の意識改革が求められます。

“AI学習ツール”が一般化する時代には、学生の主体性を維持しつつ、教師と生徒が生成AIを便利なアシスタントとして共に利用する文化醸成が望まれます。

技術革新のメリットを享受しながら不正行為を最小限に抑えるには、多角的な戦略と継続的なシステム改善が必須です。テクノロジー愛好家や教育関係者が新たな防止策を開発し、正しい運用・管理を模索することが教育の未来を切り開く鍵となるでしょう。

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓