東京工業大学の研究チームが、化学分野の専門知識を持つ言語モデルを開発しました。
研究では、論文のイントロダクション部分がモデルの性能向上に大きく貢献することが明らかになりましたが、結論部分の学習は逆に性能を下げることが判明しました。
これは結論の情報が専門的すぎるためと考えられます。
メタ社の大規模モデル「Llama2」に、化学論文を追加学習させることで性能向上を図りました。
また、低コストで計算を行う手法を用いて研究室でも扱いやすい構成を実現しました。
問題集を作成してモデルの答えと模範解答を比較し、専門領域を絞ったデータ量があることの重要性が示されました。
このように、研究支援ツールとして期待されるLLMは、各研究分野に特化した知識を持つことが求められています。
化学に限らず、多くの専門分野で応用が可能となるため、未来の研究環境を大きく変える可能性を秘めています。
出典 : https://newswitch.jp/p/40657