AIの自壊を回避できるか?次世代の課題と展望

2024.08.03

WorkWonders

先進的なAIモデルが、”hallucinate”(幻覚を見る)現象に直面しており、事実でない歴史的出来事や存在しない人物、誤った科学理論を生み出すことがあると言われています。また、これらのモデルは自分たちの欠陥の重みで崩壊する可能性があるとも指摘されています。
最近の研究によると、AIが生成したデータに頼ることで訓練データセットの質が低下し、モデルの崩壊リスクが高まることが明らかにされています。しかし、実際のところ、これまでのAIモデルはまだ多くの用途に有効です。

将来的には、すでに存在する大量の人間が生成したデータのストックが枯渇し、AIが生成したデータへの過度な依存が問題となる可能性があります。Hugging Faceのような企業は、データを洗浄する最適な方法を探求しており、限られた分野での小規模な言語モデルを開発して、より管理しやすくしています。
AIの限界は明らかになっているものの、ロボティクスなどの隣接する研究分野への関心が高まりつつあるため、AI革命はそう簡単には線路から外れないでしょう。

出典 : AI can learn a lot from its biological predecessors https://www.ft.com/content/e0c0f3df-1251-4474-afff-7f38a700af3f

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください