人間VS機械:新時代の学力評価

2024.09.29

WorkWonders

人間の評価者と、最新の機械学習モデル(Large Language Models: LLM)との比較研究が行われました。
この研究では、人間の採点と機械による採点の差異、精度、そしてバリエーションに注目し、特にGPT4、GPT4b、Geminiという三種類の機械学習モデルを使っています。
調査の結果、一部の評価ではGeminiが人間の採点と類似した結果を示しましたが、完全に正しいまたは間違った答えに対する精度ではGPT4bが最も高かったことがわかりました。

また、教師が部分的に正しい答えに集中できるように、極端な答えを信頼性高く採点できるかどうかも分析されました。
再採点や説明の要請にも応じ、一貫性のある評価を示したLLMも見られましたが、採点の差異が大きいケースでは、人間の介入がまだ必要である事が示されています。
さらに、短いキーを持つ問題では、採点における機械の自由裁量の余地が示唆されており、そのためにバリエーションが生じることが明らかになりました。

この研究は、機械と人間の採点の可能性と限界を探るための一歩であり、将来的には教師と機械のコラボレーションを通じて、教育現場がより良く発展することを期待しています。

出典 : LLM-based automatic short answer grading in undergraduate medical education – BMC Medical Education https://bmcmededuc.biomedcentral.com/articles/10.1186/s12909-024-06026-5

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓