AIの著作は人間か? 科学界に迫る大問題

2024.01.27

WorkWonders

ChatGPTをはじめとする大規模な言語モデルは、今日では説得力ある答えやエッセイ、法的文書、ニュース記事を生成することができます。しかし、これらのAIはインターネット上の情報を基に学習しており、誤情報やデマも含まれるため、いつも正確とは限りません。このことから、生成されたテキストが機械によるものか人間によるものかを見分けるツール開発が追いつめられています。
科学界も、チャットボットが科学論文を書くことや新たな仮説を生み出すことが許されるか議論が交わされています。

そうした背景の中で、スタンフォード大学の研究チームが、特に事前学習なしにAIと人間のテキストを見分ける方法「DetectGPT」を開発しました。これはテキストがAIのものにどれだけ似ているかをAI自体に評価させるものです。初期のテストでは95%の精度で人間とAIの文章を識別できたとされています。
ただし、様々なAIモデルに対して一貫性があるわけではなく、人間がAIのテキストを微調整することでDetectGPTを騙すことも可能です。

この技術は誤情報の拡散を防ぐために重要であり、科学雑誌「Science」はAIによるテキスト生成を禁止し、「Nature」は宣言されていれば使用を許可していますが、共著としてクレジットすることは禁じています。
この技術は、公共の議論に新しい虚偽を生み出し続けることのないよう、AIと人間の区別を示すために不可欠です。

出典 : https://www.ft.com/content/e34c24f6-1159-4b88-8d92-a4bda685a73c

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。