AWSにおける最新LLMアプリの自動デプロイ戦略

2024.01.11

WorkWonders

AWS上でのLLM(大規模言語モデル)アプリの展開は、MLOpsのオーバーヘッドを必要とせず、DevOpsの実践を用いて容易に行えます。

本記事では、オープンソースなサービスを利用して、インフラストラクチャとアプリケーションのパイプラインが完全自動化された状態で、LLMアプリをクラウドプロバイダであるAWSにどのように展開するかについて探求します。

例として、LlamaIndexが開発したコミュニティ用のRAGsチャットボットを使用するケースを見てみましょう。

IaC(Infrastructure as Code)はインフラのプロビジョニングを自動化し、一貫性のある繰り返し可能な構成を保証します。

この記事では、クラウドに依存しないTerraformに焦点を当てます。

IaCの自己サービスの主な目的は、開発者が効率的に仕事を進めるために、パイプラインに対するアクセス、制御、所有を強化することです。

以前私が書いたDevOps自己サービスモデルに関する5部作の記事では、関連するすべての側面について詳細に説明しています。

AWSへのコンテナ化アプリの展開方法は様々ですが、ECS Fargateを利用することにはいくつかの良い理由があります。

まず初めに、RAGsアプリをAWSにデプロイするための高レベルの展開図を考え出します。

パイプラインの概要もこの記事で掘り下げていきます。

出典 : https://medium.com/towards-data-science/deploying-llm-apps-to-aws-the-open-source-self-service-way-c54b8667d829

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

【お知らせ】
弊社ワークワンダース社主催ウェビナーのご案内です。


<2025年1月21日実施セミナー>

生産性を爆上げする、「生成AI導入」と「AI人材育成」のコツ


【内容】
1. 生産性を爆上げするAI活用術(安達裕哉:ワークワンダース株式会社 代表取締役CEO)
2. 成功事例の紹介:他業種からAI人材への転身(梅田悟司:ワークワンダース株式会社CPO)
3. 生成AI導入推進・人材育成プログラム「Q&Ai」の全貌(元田宇亮:生成AI研修プログラム「Q&Ai」事業責任者)
4. 質疑応答



日時:
2025/1/21(火) 16:00-17:30

参加費:無料  
Zoomビデオ会議(ログイン不要)を介してストリーミング配信となります。



お申込み・詳細 こちらウェビナーお申込みページをご覧ください

(2024/12/11更新)