AIチャットボット、特にGPT-4は、大量のオンラインデータに基づいて学び続けるモデルです。しかし、近月に奇妙な行動が目撃されました。
利用者からの不満が増えており、怠惰で皮肉な反応が出ることがあると言われています。
OpenAIはこの問題を認識し、1月に対策を講じましたが、AIの働きは不透明で、なぜそうなるのか明確ではありません。
スタンフォード大学のイェーツォウ教授は、何百万もの利用者からの継続的なフィードバックが、モデルの予測しにくい変化を招いている可能性を指摘します。
モデルの変化の一因には、トレーニングに利用されるインターネット上の情報に含まれる人間の偏見が反映されていること、
また、使いやすさと安全性のバランスをとろうとするOpenAIの努力が、時としてパフォーマンスに影響を及ぼしていることもあります。
この記事は、AIと私たちの未来との関わりを探るユニークな洞察を提供します。
出典 : https://www.businessinsider.com/chatgpt-acting-weird-ai-researcher-says-users-could-be-blame-2024-2