アイザック・アシモフが提案したロボット三原則も、現代のロボット技術が進歩する中で、その行動規範は脅かされています。
ロボットによる事故は2015年から2022年にかけて77件も発生し、人間への危害を禁じる第一法則を無視しています。第二法則に関しても、軍隊が第一法則を無視するロボットに興味を持つなどの問題があり、アルゴリズムが曖昧すぎると批判されています。
最近では、ロボット製造者が大規模言語モデル(LLM)をロボットに統合し、会話や書かれた指示に応答させる実験が行われていますが、LLMがジェイルブレイキング(セキュリティを突破されること)に弱いことが知られており、それによって不当な命令をロボットが受け入れてしまう危険があると指摘されています。
ペンシルベニア大学の研究者は、LLMをコントロールするロボットをジェイルブレイキングさせるアルゴリズムRoboPAIRを開発し、ロボットが不適切な指示に従わせることが可能であることを示しました。また、取り組まれている対策はチャットボット向けであり、現実のロボットには十分ではないことも明らかになっています。これにより、AI搭載ロボットに対する防御策の必要性が高まっています。
出典 : Chatbots controlling robots: What could go wrong? https://www.theregister.com/2024/11/16/chatbots_run_robots/