SageMaker

AWS の機械学習プラットフォームで、モデルの構築・学習・デプロイを統合的に提供する

AWS機械学習

SageMaker とは

Amazon SageMaker は、機械学習モデルの構築・学習・デプロイを統合的に提供するマネージドプラットフォームである。Jupyter Notebook での実験から、本番環境へのモデルデプロイまでをカバーする。

SageMaker の主要機能

SageMaker は ML ワークフロー全体をカバーする。Studio (統合 IDE) で実験し、Training で分散学習やスポットインスタンスを使ってモデルを学習する。学習済みモデルは Endpoints でリアルタイム推論、Batch Transform でバッチ推論に使える。Pipelines で ML パイプラインを自動化し、Feature Store で特徴量を管理、Model Registry でモデルをバージョン管理、Model Monitor で本番モデルの精度を監視する。Autopilot を使えば AutoML で自動的にモデルを構築することもできる。

Bedrock との使い分け

観点 SageMaker Bedrock
用途 カスタムモデルの学習・デプロイ 基盤モデル (LLM) の利用
モデル 自前で学習 Claude, Nova 等のプロバイダーモデル
インフラ GPU インスタンスの管理 サーバーレス
コスト インスタンス時間課金 トークン課金
推奨 独自データでの学習が必要 テキスト生成、要約、分類

SageMaker Endpoints

SageMaker Endpoints はリアルタイム推論用のエンドポイントで、学習済みモデルをデプロイしてリクエストに応答する。低トラフィックのモデルには Serverless Inference を選択すればリクエストがない間はコストゼロになる。

Lambda + Bedrock vs SageMaker

ケース 推奨
テキスト生成、要約、翻訳 Lambda + Bedrock
画像分類、物体検出 SageMaker Endpoints
カスタムモデルの学習 SageMaker Training
表形式データの予測 SageMaker Autopilot

コスト最適化

学習ジョブにはスポットインスタンスを使うと 70〜90% のコスト削減が見込める。低トラフィックのモデルには Serverless Inference を選択すればリクエストがない間はコストゼロになる。複数の小規模モデルを運用する場合は Multi-Model Endpoints で 1 つのエンドポイントにまとめると、インスタンスコストを共有できる。

SageMaker の理解を深めるには関連書籍が参考になる。

関連用語