インターネット上にはAI基盤モデルを最適化するための情報が溢れていますが、実際のアプローチを探求する過程では、多くの資料を行き来する必要がありました。例えば、特定のビジネス問題に沿ったAIモデルのチューニングを行う場合、単に新しい単語をモデルの辞書に追加するだけでは不十分です。
新しい単語に適した埋め込みベクトル(Embedding)がなければ、モデルはうまく機能しません。この問題を解決するため、既存の単語の埋め込みベクトルを平均して新しい単語を表現する方法を思いつきました。
また、ドメイン特化の語彙に対応するには、LoRAアダプターを導入してトークナイザーと埋め込み層を更新します。実際のコードと共に説明すると、例えばLlama-2モデルを使い、まずは8ビットに量子化し、QLoRAファインチューニングの準備を行います。
その上で、特定分野のデータセットをトレーニングのために用意することになります。トランスフォーマーデコーダーモデルを訓練する際は、単にテキストデータを供給するだけで、書式に大きな変更は不要です。
このようにしてデータ処理を終えた後は、具体的なワードに特化してファインチューニングを行うことで、モデルのカスタマイズが完了します。
出典 : https://jaotheboss.medium.com/domain-training-your-llm-6c77f53e3e27