欧州連合(EU)が世界で初めてAI(人工知能)を総合的に規制する法律を採択しようとしています。EU AI法案は、リスクの高いAIモデルに厳しい規則を課し、AIシステムが安全で基本的人権やEUの価値観を尊重することを保証するために設計されました。
この法律はAIの進展に伴い制定されており、新しいバージョンのAIモデルの登場や、詐欺や誤情報の拡散に使われている既存のシステムへの対策が必要とされています。
EUでは、AIモデルをその潜在的リスクに基づいて規制することを選択しており、特にAIを採用や法執行などの高リスクな用途で使用する場合には、そのモデルが安全かつユーザーに対して透明性と説明責任があることを開発者が示す必要があります。また、個人情報の保護や差別の禁止についても遵守することが要求されます。
研究者の中にはこの法案により、オープンサイエンスが奨励される可能性を歓迎する声もあれば、革新を妨げるのではないかと懸念する声もあります。一方で、よりパワフルな汎用モデルについては、別途より厳格な規制が検討されています。
この法律は科学者や研究者にとって、研究開発や試作目的で開発されたAIモデルが免除されるなど、理論上はほとんど影響がないと考えられます。しかし、透明性やモデル報告、バイアスへの潜在的影響について理解を深めるきっかけになるでしょう。
EUのアプローチはオープンソースAIを奨励する一方で、法を実施する上での具体的な手続きについては十分な考慮が払われていないという懸念もあります。注目される将来の展開です。
出典 : https://www.nature.com/articles/d41586-024-00497-8?error=cookies_not_supported&code=881cf7fb-611e-4290-a4ef-8633ba73b13e