AIトレーニングの落とし穴:「モデル崩壊」とは何か?

2024.07.30

WorkWonders

英国のオックスフォード大学やケンブリッジ大学の研究者らが注目の研究結果を発表しました。彼らは、AIモデルが独自に生成したデータで学習を繰り返すと、性能が次第に低下する「モデル崩壊」という現象を発見しました。
モデル崩壊は、AIが生成したデータによって、次の世代のAIが現実と異なるデータで学習してしまい、性能が劣化する現象です。実験では、様々な大規模言語モデルや他のAIモデルを用い、世代ごとの性能を検証しました。
特に、学習のたびに新しいデータのみを使うと、性能の低下が顕著に。一方、元データの一部を保持することで、その低下をある程度抑えることもできるようです。この発見は、AIのトレーニング方法を再考せざるを得ない重要な示唆を与えています。
開発者たちは、AIが生成するデータが増える中で、人間が作成した質の高いデータが重要であるとし、開発者の協力が必要だと提言します。

出典 : 生成AIが“AI生成コンテンツ”を学習し続けるとどうなる?→「モデル崩壊」が起こる 英国チームが発表 https://www.itmedia.co.jp/aiplus/articles/2407/29/news060.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。