画像生成AI技術の進歩には裏があり、読売新聞の取材で、学習データに犠牲者の写真が含まれている問題が明らかになりました。事件や災害の犠牲者を無断で利用している状況があり、AIが類似画像を生成する危険性があることから、倫理的な議論が求められています。
特に過労自殺した電通の新入社員、高橋まつりさんの母親は、娘の写真が再発防止の志とは異なる目的で使用されていることに困惑を隠せませんでした。画像データは58億点にも及び、自動巡回プログラムによって収集されたものが使われており、今後の対応が注目されます。
この技術の発展と倫理の狭間で、どうバランスを取るべきか、社会全体での審議が必要とされています。
出典 : https://www.yomiuri.co.jp/national/20240407-OYT1T50068/