大規模言語モデル(LLM)、特にChat GPTは、ウェブ開発で驚異的なツールです。時間の節約や新しいアイデア提供、質の高いコード生成に役立ち、統合開発環境(IDE)や自動補完なしで作業することの助けとなります。しかしながら、LLMが出力するコードにはセキュリティの問題が生じることがあります。
例えば、入力検証がないコード、パスワードがハッシュ化されていないコード、XSS攻撃を許すコードなどがそれです。CyberArkでは、「コードは自己責任」という考えを持っています。コードの出典に関わらず、開発者がコードを徹底的に分析し、レビューすることが重要です。
LLMはトレーニングされたデータに基づいて機能するため、最新のテクノロジーやセキュリティ問題を熟知しない場合もあります。これを避けるため、開発者は常識、経験、意識をもってプルリクエストのレビューをし、CIやセキュリティコード分析を活用する必要があります。
開発者の皆さん、LLMが生成したコードも注意深く扱い、安全なソフトウェア開発を心がけましょう。
出典 : https://medium.com/cyberark-engineering/code-security-in-llm-on-the-real-world-744505f68ed0