医療分野のAIリスクとその対策

2025.05.17

WorkWonders

AI技術が急速に進化する中、特に医療分野での利用にあたっては、さまざまなセキュリティリスクに注意が必要です。この技術の根本的な弱点として、訓練データに悪意のある情報を混入させられたり、セキュリティプロトコルを回避させたりする手法があげられます。その結果、有害または不適切な反応を引き起こす可能性があります。

 さらに、AIのモデルそのものを超えた非AI固有の脆弱性も存在します。例えば、LLM(大規模言語モデル)を使用するシステムが攻撃を受けると、重大なデータ侵害やデータの改ざん・損失、サービスの中断につながる危険があります。放射線科医療では、画像分析の結果を操作されたり、患者の秘密情報に不正アクセスされたり、あるいは任意のソフトウェアをインストールされたりするリスクも指摘されています。

 専門家は、医療、特に放射線科でLLMを導入する際は、これらのセキュリティリスクを入念に評価するよう促しています。攻撃から身を守るために、強力なパスワードの使用、多要素認証の有効化、ソフトウェアのセキュリティパッチを最新に保つことなど、基本的なセキュリティ対策が求められますが、特に医療の現場では、患者データの機密性が高いため、より高いレベルでのセキュリティが求められます。

出典 : Experts highlight LLM cybersecurity threats in radiology https://healthcare-in-europe.com/en/news/llm-cybersecurity-threats-radiology.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓