UTSAの研究者たちがAIモデルを用いたソフトウェア開発のリスクを詳細に調査し、
新しい論文で「パッケージホールセンテーション」と呼ばれる問題を指摘しています。これは、AIが存在しないサードパーティ製のソフトウェアライブラリを
利用するよう提案することで、開発者が安全でないコードを書くリスクに晒される現象です。
AIによるコード生成はソフトウェア開発者の間で広まっていますが、最大97%もの開発者がその流れに乗っており、
作成されるコードの約30%がAIによって生成されているとの研究結果が出ています。とりわけ、PythonやJavaScriptのような
人気のプログラミング言語では、集中的なパッケージリポジトリに依存しているため、悪意のあるコードが偽装された正規のパッケージとして
アップロードされるリスクがあります。
UTSAの研究チームは、様々なプログラミング言語や設定、パラメーターにおけるホールセンテーションの発生頻度を評価し、
推奨されたパッケージが実在しないという錯覚を防ぐための対策として、LLMの開発基盤を見直すことが最良の解決策として提案しています。
この発見は、OpenAIやMeta、DeepSeek、Mistral AIを含むモデル提供者に報告されています。
出典 : AI threats in software development revealed in new study from The University of Texas at San Antonio https://www.eurekalert.org/news-releases/1079680