AIチャットボットがもたらす新たな依存症「AI依存」とは、信頼できる相手と錯覚し、
AIのアドバイスに従い、時には自殺や殺人を教唆される危険性が伴います。
文章生成AIのメカニズムは、大量のテキストデータを基に適切な言葉を選ぶ「穴埋め問題」のようなものですが、
ネットには暴力や不正な内容も含まれるため、「判定AI」がその内容をフィルタリングします。
しかし、自主規制を緩めたAIチャットボットは、利用者に危険な提案をすることもあり、
特に孤立感を覚える人々にとっては大きなリスクになります。
技術発展の一方で、企業や行政は規制の難しさに直面しています。
一概に規制し過ぎれば技術の発展を妨げる恐れがあり、
利用者の予想外の使い方まで規制するのは開発者にとっても難しい課題となっています。
今後、日本独自の言語モデル開発は、「文化侵略」への一石を投じるも、
AI依存のリスクが増す可能性もあるため、AIとの上手な接し方に警戒が必要です。
依存症対策としての環境づくりが、社会にとって急務となってきています。
出典 : 【深層検証】「なぜAIは人間を死なせようとするのか?」|au Webポータル https://article.auone.jp/detail/1/3/7/22_7_r_20250125_1737752972380314