本日の主なトピック #
- SageMaker Studio ノートブックにおける高性能 GPU インスタンス(P4de, G6, G6e)の東京リージョン等への拡張
- Amazon Aurora DSQL のアジア・南米・北欧リージョンへの拡大
- AWS Transform による移行時のコンテナ化自動化(AI 活用)
- Anthropic 社のネイティブな開発体験を AWS アカウントで利用できる「Claude Platform on AWS」の一般提供開始
- AWS WAF における動的なラベル補間による柔軟なルール運用の実現
¥3,520 Amazonで見る
AWS運用入門 改訂第2版 押さえておきたいAWSの基本と運用ノウハウ [AWS深掘りガイド] 単行本(ソフトカバー) – 2025/7/11
Amazon Aurora DSQL が新たに 5 つのリージョンで利用可能に #
投稿日: 2026年05月11日
何ができるようになったのか #
Amazon Aurora DSQL のシングルリージョンクラスターが、アジアパシフィック(香港、ムンバイ、シンガポール)、欧州(ストックホルム)、南米(サンパウロ)の 5 つのリージョンで新たに利用可能になりました。Aurora DSQL は、サーバーレスで分散型の SQL データベースであり、インフラ管理不要で高い拡張性と可用性を備えたアプリケーションの構築を可能にします。
何が嬉しいのか #
今回の拡張により、より多くの地域で低レイテンシかつ高可用な分散 SQL データベースを利用できるようになります。Aurora DSQL は事実上無制限の拡張性を提供し、分散環境での高速な読み取りと書き込みを実現するように設計されています。開発者はデータベースのプロビジョニングや容量管理を気にすることなく、アプリケーションの構築に専念できます。
これまでとどう変わるのか #
- これまで: Aurora DSQL は利用可能なリージョンが限られており(米国、カナダ、東京、大阪、ソウル、欧州の一部など)、香港やシンガポール、ムンバイなどの主要なアジア拠点や、南米などのリージョンでは利用できませんでした。
- これから: アジアや南米、北欧の主要リージョンでも Aurora DSQL が利用可能になり、グローバルに展開するアプリケーションにおいて、地理的に近い場所でサーバーレスな分散 SQL データベースを活用できるようになります。
具体的なユースケース #
- グローバルアプリケーションのバックエンド: 複数の地域に展開するサービスにおいて、各リージョンで一貫したパフォーマンスと可用性を持つデータベースとして利用する。
- 急激なトラフィック変動があるサービス: サーバーレスの特性を活かし、スパイク的なアクセスに対しても自動でスケールする system を構築する。
- 可用性が極めて重要なミッションクリティカルなシステム: 分散 SQL の高い耐障害性を活用し、停止の許されないサービスを構築する。
Amazon Aurora DSQL (Distributed SQL) は、2024 年の AWS re:Invent で発表された比較的新しいデータベースサービスです。 主な特徴は以下の通りです。
- サーバーレスかつ分散型のアーキテクチャ。
- 高い可用性と、事実上無制限のスケーラビリティ。
- PostgreSQL 互換のインターフェース。
AWS HealthOmics がキャンセルされたワークフロー実行のキャッシュに対応 #
投稿日: 2026年05月11日
何ができるようになったのか #
AWS HealthOmics において、キャンセルされたワークフロー実行で完了していたタスクの出力をキャッシュできるようになりました。これにより、実行が途中でキャンセルされた場合でも、完了済みのタスク結果を再利用し、再実行時にそれらの計算をスキップすることが可能になります。
何が嬉しいのか #
バイオインフォマティクスのワークフローは、完了までに数時間かかる重いタスクが含まれることが多々あります。今回のアップデートにより、実行をキャンセルしてもそれまでの成果が無駄にならず、キャンセルされた時点から再開できるようになります。これはワークフローの開発やデバッグ、反復的な実行において、大幅な時間短縮とコンピューティングコストの削減につながります。
これまでとどう変わるのか #
- これまで: ワークフローの実行をキャンセルすると、その実行中に完了していたタスクの出力はキャッシュの対象外となる場合があり、修正後に再実行する際には、すでに一度成功していたタスクも最初から計算し直す必要がありました。
- これから: キャンセルされた実行の完了済みタスク出力が自動的に S3 バケットに保存され、次回の実行時に再利用できるようになります。これにより、未完了のタスクのみを実行するだけで済むようになります。
具体的なユースケース #
- ワークフローのデバッグ: パイプラインの後半でエラーが発生することが予想される場合に、一旦キャンセルして設定を変更し、前半の重い処理をスキップして後半から再テストする。
- コスト最適化: 誤ったパラメータで実行を開始してしまったことに気づいた際、すぐにキャンセルしても、それまでに完了した処理の成果を次の正しい実行で活かすことができる。
- 大規模なゲノム解析: 数千のタスクからなる長時間の解析において、途中で割り込みが発生しても、既済みのタスクを無駄にせず効率的に完走させる。
AWS HealthOmics は、ヘルスケアおよびライフサイエンス企業向けのマネージドなバイオインフォマティクスサービスです。 主な特徴は以下の通りです。
- Nextflow、WDL、CWL といった標準的なワークフロー言語をサポート。
- HIPAA 準拠のセキュアな環境でのゲノム解析。
- キャンセル実行のキャッシュは、すべての HealthOmics 提供リージョンで利用可能。
AWS Transform が移行時のコンテナ化自動化に対応 #
投稿日: 2026年05月11日
何ができるようになったのか #
移行支援サービスである AWS Transform において、AWS への移行と同時にアプリケーションをコンテナ化(リプラットフォーム)できるようになりました。エージェント型 AI(Agentic AI)機能を活用し、ソースコードからの Dockerfile 生成、イメージの作成、Amazon ECR への公開、さらには Amazon ECS や Amazon EKS へのデプロイまでを自動化します。
何が嬉しいのか #
従来、オンプレミスからの移行では「まずはそのまま移行(リホスト)」してから「後でコンテナ化(リプラットフォーム/リファクタリング)」するという段階的なアプローチが一般的でしたが、時間がかかるという課題がありました。今回のアップデートにより、移行とモダン化を並行して進めることができ、クラウドネイティブな構成への移行にかかる時間と複雑さを大幅に削減できます。
これまでとどう変わるのか #
- これまで: AWS Transform は主に仮想マシンのリホスト(再ホスト)を支援していましたが、コンテナ化するには手動で Dockerfile を作成し、CI/CD パイプラインを構築する必要がありました。
- これから: ソースコードリポジトリ(GitHub, Bitbucket, GitLab)や zip ファイルを指定するだけで、AI がコードを分析して最適なコンテナ構成を提案・自動生成します。Terraform や Helm チャートといった IaC も同時に生成されるため、すぐにデプロイ可能な状態になります。
具体的なユースケース #
- レガシーアプリケーションの迅速なコンテナ化: 手作業でのコンテナ化が困難な古いアプリケーションを、AI の力を借りて効率的に ECS/EKS へ移行する。
- 大規模な移行プロジェクト: 数千規模のアプリケーションを移行する際、リホストとリプラットフォームを同じワークフロー内で管理し、一括でモダン化を進める。
- セキュリティ強化: 自動生成プロセスに含まれるセキュリティスキャン機能により、既知の脆弱性(CVE)を特定しながら安全にコンテナ化する。
AWS Transform は、AI を活用して移行を加速させるサービスです。 主な特徴は以下の通りです。
- エージェント型 AI によるソースコード分析と Dockerfile/IaC 自動生成。
- モノレポや複数リポジトリ構成のサポート。
- AWS CodeArtifact と連携したプライベート依存関係の解決。
AWS WAF がカスタムリクエスト・レスポンスでの動的なラベル補間に対応 #
投稿日: 2026年05月11日
何ができるようになったのか #
AWS WAF において、動的なラベル補間(Dynamic label interpolation)がサポートされました。${namespace:} という構文を使用することで、WAF が分類したシグナル(ラベル)をオリジンへのリクエストヘッダーに含めたり、レスポンスヘッダーやレスポンスボディに埋め込んだりすることが、単一のルールで可能になります。
何が嬉しいのか #
これまではラベルの値ごとに個別のルールを作成してヘッダーを付与する必要がありましたが、今回のアップデートにより特定の名前空間(ネームスペース)に属するすべてのラベルを一括で動的に挿入できるようになります。これにより、ルール管理の複雑さが劇的に軽減されるとともに、アプリケーション側で WAF の判定結果に基づいた、より柔軟でアダプティブな(適応的な)処理(例:特定の評判の悪い IP からのリクエストに対して追加認証を求めるなど)を実装しやすくなります。
これまでとどう変わるのか #
- これまで: WAF のラベル(例:IP レピュテーションや不正ログイン検出の結果)を後続のアプリケーションに伝えるには、想定されるラベル値ごとに対応するルールを定義する必要がありました。
- これから: 動的変数を使用することで、一つのルールで特定の名前空間に一致するすべてのラベル(複数ある場合はカンマ区切り)をヘッダー等に挿入できます。また、リクエスト ID や JA3/JA4 TLS フィンガープリントなどの「合成ラベル(Synthetic labels)」も動的に埋め込めるようになります。
具体的なユースケース #
- カスタムブロックページの改善: ブロックされたユーザーへのレスポンスボディに WAF のリクエスト ID を自動的に埋め込み、誤検知の報告時にユーザーが参照できるようにする。
- アダプティブな認証処理: JA3/JA4 フィンガープリントをヘッダーでアプリケーションに転送し、通常と異なる接続パターンに対して多要素認証 (MFA) を要求する。
- 高度な分析: AWS マネージドルールの判定結果(ラベル)をすべてオリジンに転送し、アプリケーションログ側で詳細なセキュリティ分析を行う。
AWS WAF のラベルは、リクエストの属性や判定結果をタグ付けする機能です。 今回の動的補間の特徴は以下の通りです。
${namespace:}構文で名前空間内の全ラベルを解決。- クライアント IP、リクエスト ID、JA3/JA4 フィンガープリント等の合成ラベルをサポート。
- 追加料金なしで、すべての WAF 提供リージョンで利用可能。
AWS 上の Claude Platform が一般提供開始 #
投稿日: 2026年05月11日
何ができるようになったのか #
AWS アカウントを使用して、Anthropic 社が提供するネイティブな「Claude Platform」環境へ直接アクセスできる新サービス「Claude Platform on AWS」が一般提供開始されました。これにより、開発者は別途 Anthropic のアカウントを作成・管理することなく、既存の AWS 認証情報(IAM)と支払い(一括請求)を利用して、Claude の最新 API やコンソール、早期アクセス機能を利用できます。
何が嬉しいのか #
開発者は、AWS アカウントを維持したまま、Anthropic のネイティブな開発体験(API、コンソール、ベータ機能)を享受できるようになります。特に、Claude Managed Agents(ベータ)、ウェブ検索・ウェブ取得(web search, web fetch)、コード実行(code execution)、Skills(ベータ)、MCP コネクタ(ベータ)など、Anthropic 独自の新機能をいち早く試すことが可能です。また、利用料金は AWS の請求に統合され、セキュリティガバナンスのための AWS CloudTrail 監査ログも利用可能です。
これまでとどう変わるのか #
- これまで: Claude モデルを AWS で利用する場合、Amazon Bedrock を通じた利用が一般的でした。Bedrock は AWS のセキュリティ境界内での実行を保証しますが、Anthropic ネイティブの最新機能(ベータ機能や独自の開発コンソール機能など)が利用できるようになるまでに時間がかかる場合がありました。また、ネイティブの Claude Platform を使うには別途 Anthropic との契約が必要でした。
- これから: 既存の AWS アカウントのまま、Anthropic が運営するネイティブな Claude Platform へ直接アクセスできます。ただし、データは Anthropic が管理する AWS セキュリティ境界の外で処理されるため、データレジデンシー(データの所在)に関する特定の要件がない開発チームや企業に適した選択肢となります。
具体的なユースケース #
- 最新 AI 機能の早期導入: Claude Managed Agents や Skills などの最新ベータ機能を活用し、高度な AI エージェントを迅速にプロトタイピングする。
- 統合された請求と認証: 企業の AWS アカウント管理の枠組みの中で、開発チームに Anthropic ネイティブの開発環境を安全に提供する。
- 高度なプロンプトエンジニアリング: Claude Console を活用し、効率的なプロンプトの開発と評価を行う。
Claude Platform on AWS は、Amazon Bedrock とは異なるアプローチのサービスです。 主な特徴は以下の通りです。
- Anthropic が運営し、AWS アカウントでログイン・支払いが可能。
- 最新のベータ機能(コード実行、ウェブ検索等)が利用可能。
- 東京、ソウル、シドニーなどのアジアパシフィックを含むグローバルなリージョンで利用可能。
SageMaker Studio ノートブックで G6 インスタンスがドバイ・マレーシアリージョンで利用可能に #
投稿日: 2026年05月11日
何ができるようになったのか #
Amazon SageMaker Studio ノートブックにおいて、Amazon EC2 G6 インスタンスが中東(ドバイ)およびアジアパシフィック(マレーシア)リージョンで一般提供開始されました。G6 インスタンスは、最大 8 基の NVIDIA L4 Tensor コア GPU(各 GPU あたり 24GB メモリ)と第 3 世代 AMD EPYC プロセッサを搭載しています。
何が嬉しいのか #
G6 インスタンスは、EC2 G4dn インスタンスと比較してディープラーニング(DL)推論のパフォーマンスが最大 2 倍向上しています。これにより、生成 AI の微調整や推論ワークロード、自然言語処理、言語翻訳、コンピュータビジョン、レコメンダーエンジンなどのユースケースにおいて、モデルのデプロイテストやインタラクティブなモデルトレーニングをより効率的に行うことができます。
これまでとどう変わるのか #
- これまで: ドバイやマレーシアのリージョンでは、SageMaker Studio ノートブックで利用できる最新のコスト効率に優れた推論・トレーニング用インスタンスの選択肢が限られていました。
- これから: NVIDIA L4 GPU を搭載した G6 インスタンスが利用可能になり、G4dn 世代よりも高い推論パフォーマンスを享受できるようになります。
具体的なユースケース #
- 生成 AI モデルの微調整: ノートブック上でインタラクティブに小規模なモデルのチューニングを行う。
- リアルタイム推論のテスト: 新しいモデルのデプロイ前に、G6 インスタンスを使用して推論速度や精度を確認する。
- コンピュータビジョン・画像解析: 大量の画像データに対する推論処理の高速化。
G6 インスタンスは、コスト効率の高いディープラーニング推論およびグラフィックス集約型アプリケーション向けに設計されています。 主な特徴は以下の通りです。
- NVIDIA L4 Tensor コア GPU 搭載。
- G4dn インスタンス比で最大 2 倍の推論パフォーマンス。
- 生成 AI や自然言語処理ワークロードに最適。
SageMaker Studio ノートブックで G6e インスタンスが東京リージョンなどで利用可能に #
投稿日: 2026年05月11日
何ができるようになったのか #
Amazon SageMaker Studio ノートブックにおいて、Amazon EC2 G6e インスタンスがアジアパシフィック(東京、ソウル)、中東(ドバイ)、欧州(フランクフルト、ストックホルム、スペイン)の各リージョンで一般提供開始されました。G6e インスタンスは、最大 8 基の NVIDIA L40s Tensor コア GPU(各 GPU あたり 48GB メモリ)と第 3 世代 AMD EPYC プロセッサを搭載しています。
何が嬉しいのか #
G6e インスタンスは、EC2 G5 インスタンスと比較して最大 2.5 倍のパフォーマンスを発揮します。1 基あたり 48GB という大容量の GPU メモリを搭載しているため、最大 13B(130 億)パラメータを持つ大規模言語モデル(LLM)のデプロイや、画像・動画・音声を生成する拡散モデル(ディフュージョンモデル)の実行、生成 AI の微調整などに最適です。
これまでとどう変わるのか #
- これまで: 東京リージョンを含む多くの地域で、ノートブック環境から最新の NVIDIA L40s GPU を利用した開発を行うには制限がありました。また、G5 インスタンスでは大規模なモデルの処理能力やメモリ容量が不足する場合がありました。
- これから: 東京リージョンなどで G6e インスタンスが利用可能になり、G5 インスタンスよりも大幅に高いパフォーマンスと余裕のある GPU メモリを活用して、最新の生成 AI モデル開発をインタラクティブに進めることができます。
具体的なユースケース #
- 13B パラメータ規模の LLM 実行: Llama 2 13B などのモデルをノートブック上でデプロイし、推論テストを行う。
- 画像・動画生成 AI の開発: Stable Diffusion などの拡散モデルを用いたメディア生成アプリケーションのプロトタイピング。
- インタラクティブな生成 AI 微調整: データセットを用いたモデルのファインチューニングをノートブック上で直接実行。
G6e インスタンスは、生成 AI ワークロードに特化した強力なインスタンスです。 主な特徴は以下の通りです。
- NVIDIA L40s Tensor コア GPU 搭載。
- 1 GPU あたり 48GB の GDDR6 メモリ。
- G5 インスタンス比で最大 2.5 倍のパフォーマンス。
SageMaker Studio ノートブックで P4de インスタンスが東京リージョンなどで利用可能に #
投稿日: 2026年05月11日
何ができるようになったのか #
Amazon SageMaker Studio ノートブックにおいて、Amazon EC2 P4de インスタンスがアジアパシフィック(東京、シンガポール)および欧州(フランクフルト)リージョンで一般提供開始されました。P4de インスタンスは、8 基の NVIDIA A100 GPU を搭載し、各 GPU には従来の P4d インスタンスの 2 倍となる 80GB の高性能 HBM2e GPU メモリを備えています。
何が嬉しいのか #
P4de インスタンスを利用することで、合計 640GB の GPU メモリを活用できるようになります。これにより、P4d インスタンスと比較して機械学習(ML)のトレーニング性能が最大 60% 向上し、トレーニングコストを 20% 削減できます。パフォーマンスの向上はモデルのトレーニング時間を短縮し、市場投入までの時間を早めることにつながります。また、大容量の GPU メモリは、高解像度データの巨大なデータセットを扱うワークロードに特に有効です。
これまでとどう変わるのか #
- これまで: SageMaker Studio ノートブックで利用可能な高性能インスタンスとして P4d がありましたが、より大規模なメモリを必要とするモデルのトレーニングには制限がありました。また、東京リージョンなどの特定の地域では P4de の選択肢がありませんでした。
- これから: 東京リージョンを含む複数のリージョンで P4de インスタンスが選択可能になり、P4d よりも 2 倍の GPU メモリ(1 基あたり 80GB)を利用して、より高速かつ低コストで ML トレーニングを実行できるようになります。
具体的なユースケース #
- 大規模言語モデル (LLM) の微調整: 膨大なパラメータを持つモデルを、大容量 GPU メモリを活かして効率的にトレーニングする。
- 高解像度画像・動画解析: 医療画像や高精細ビデオデータなど、メモリ消費の激しいデータの処理。
- 複雑なシミュレーション: 大規模なデータセットをメモリ上に展開して行う計算科学や金融モデルの実行。
P4de インスタンスは、NVIDIA A100 GPU を搭載した EC2 インスタンスの最新世代の一つです。 主な特徴は以下の通りです。
- 80GB HBM2e GPU メモリ(P4d は 40GB)。
- 400 Gbps のネットワーク帯域幅。
- 機械学習トレーニングにおける高いコストパフォーマンス。