スタンフォード大学の研究グループが発表した内容によれば、画像生成AI「Stable Diffusion」の学習データに問題があることが明らかになりました。
学習に使用された「LAION-5B」というデータセットには、違法な児童ポルノ画像が含まれていたとのことです。この事実が表面化し、日本を含む世界中で大きな議論を引き起こしています。
いまだ削除されていない違法データによって学習されたAIの法的責任や、表現規制につながる可能性が懸念されています。
これからAI技術と社会的倫理との関係は、どう発展していくのでしょうか。
出典 : https://ascii.jp/elem/000/004/194/4194035/