GPT-4の新たな脅威: セキュリティ脆弱性の自動悪用

2024.04.30

WorkWonders

OpenAIが開発したGPT-4が、脆弱性の情報を元にサイバー攻撃を実行できることが判明しました。
イリノイ大学の研究で、一般に公表されたセキュリティの脆弱性情報(CVE)を用いた実験が行われた結果、GPT-4は87%の高確率で攻撃を成功させることが明らかになりました。
これに対し、以前のモデルではそのような攻撃を成功させることはできませんでした。
CVEへのアクセスを制限すると攻撃成功率は大幅に低下しますが、それでもGPT-4は攻撃方法を自ら開発する能力を持っています。
この事実は将来のAIモデルがさらに進化した場合、セキュリティ上のリスクが増大する可能性を示唆しています。
研究者はさらに、AIを悪用手法に利用することのコスト効率の高さを指摘、セキュリティに対する新たなアプローチが求められています。

出典 : https://article.auone.jp/detail/1/3/7/48_7_r_20240422_1713762732860869

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。