メインコンテンツへスキップ

【AWSデイリーアップデート 22件】次世代インスタンスC8iの拡大、生成AI開発加速(Qwen3.5対応等)、運用ツールの高度化など

· loading · loading ·
kiitosu
著者
kiitosu
aws community builder. 画像処理やデバイスドライバ、データ基盤構築からWebバックエンドまで、多様な領域に携わってきました。地図解析や地図アプリケーションの仕組みにも経験があり、幅広い技術を活かした開発に取り組んでいます。休日は草野球とランニングを楽しんでいます。
目次

本日の主なトピック
#

  • 次世代インスタンスの拡大: Intel Xeon 6 プロセッサ搭載の C8i / C8i-flex インスタンスが、大阪やニュージーランドなど複数のリージョンで利用可能になりました。
  • 生成AI開発の加速: Amazon SageMaker AI での Qwen3.5 カスタマイズ対応、推論レコメンデーション、および Bedrock AgentCore の新機能により、AI エージェントの構築が容易になりました。
  • 運用管理の高度化: CloudWatch Logs Insights での JOIN/サブクエリ対応、OpenSearch のロールバック機能、EC2 マネージドリソースの非表示設定など、運用効率を高める機能が多数追加されました。
  • セキュリティと連携の強化: Secrets Manager が MongoDB Atlas / Confluent Cloud の自動回転に対応し、AWS Glue が Snowflake 接続で OAuth 2.0 をサポートしました。



Amazon Bedrock AgentCore に開発を加速する新機能が登場
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon Bedrock AgentCore に、AI エージェントの開発・管理を効率化する 3 つの新機能が追加されました。

  1. Managed Harness (プレビュー): オーケストレーションコードを書かずに、モデル・プロンプト・ツールを定義するだけで即座にエージェントを実行できる環境。
  2. AgentCore CLI: インフラ協調(IaC)を通じたエージェントのデプロイや管理を可能にするコマンドラインツール。
  3. AgentCore Skills: コーディングアシスタント(Claude Code、Cursor 等)から AgentCore のガイダンスを直接受けられる機能。

何が嬉しいのか
#

  • プロトタイピングの高速化: Managed Harness を使用することで、各セッションごとに独立した microVM(ファイルシステム・シェルアクセス付き)が提供され、推論からツールの実行までを AWS が自動管理します。
  • 柔軟な実験: セッションの途中でモデルを切り替えたり、設定をオーバーライドしたりできるため、再デプロイなしで試行錯誤が可能です。
  • 本番へのスムーズな移行: プロトタイプを検証した後は、AgentCore CLI を使用して AWS CDK(Terraform は近日対応)経由でガバナンスの効いたデプロイが行えます。

これまでとどう変わるのか
#

  • これまで: エージェントを構築するには、推論ループの管理やツールの呼び出し、セッション状態の維持などを開発者がコードで実装する必要がありました。
  • これから: Managed Harness によりオーケストレーションが抽象化され、開発者はエージェントの「振る舞い」と「ツール」の定義に集中できるようになります。また、ファイルシステムの永続化により、中断したタスクを後で再開することも可能です。

具体的なユースケース
#

  • 迅速な POC: 特定のタスク(データ分析や自動コーディング等)を実行するエージェントを、数分で構築して検証する。
  • CI/CD パイプライン: AgentCore CLI を用いて、検証済みのエージェント構成をテスト環境や本番環境へ自動デプロイする。
Managed Harness は、開発者がオーケストレーションコードを意識せずに AI エージェントを実行できるプレビュー機能です。米国西部 (オレゴン)、米国東部 (バージニア北部)、欧州 (フランクフルト)、アジアパシフィック (シドニー) の 4 リージョンで提供されています。

Amazon CloudWatch pipelines が AI によるプロセッサ構成をサポート
#

投稿日: 2026年04月21日

何ができるようになったのか
#

Amazon CloudWatch pipelines において、生成 AI を使用して自然言語の説明からログプロセッサの構成を自動生成できるようになりました。複雑なログフォーマットのパースや加工ルールを、専門的な設定値を詳しく知らなくても、日本語や英語などの話し言葉で記述するだけで設定可能です。

何が嬉しいのか
#

  • 設定時間の短縮: ログの抽出、変換、リッチ化といった一連の処理を、AI が数秒で構成案として提示します。
  • 即時の検証: 生成された構成とともにサンプルのログイベントが表示されるため、実際にデプロイする前に期待通りの変換結果が得られるかを確認できます。
  • 学習コストの低減: 個々のプロセッサの詳細なパラメータや構文に精通していなくても、直感的にパイプラインを構築できます。

これまでとどう変わるのか
#

  • これまで: ログパイプラインを構築する際、プロセッサ(パース、フィルタリング、変換など)を適切に組み合わせるには、ログの構造を深く理解し、それぞれのプロセッサ設定を手動で細かく調整する必要がありました。
  • これから: 「このログからタイムスタンプとエラーレベルを抽出し、特定のフィールドを匿名化して」といった指示を出すだけで、AI が最適なプロセッサチェーンを組み立ててくれるようになります。

具体的なユースケース
#

  • 複雑なアプリケーションログの解析: 非構造化、あるいは複雑なネスト構造を持つログから、必要なデータのみを効率的に抽出する。
  • 機密情報のマスキング: ログ出力に含まれる個人情報や秘密情報を、プロセッサを使用して自動的に除外または匿名化する。

Amazon Corretto 2026年4月の四半期アップデートを発表
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon Corretto の各 LST(長期サポート)および FR(フィーチャーリリース)バージョンにおいて、2026年4月の四半期セキュリティおよび重要アップデートがリリースされました。対象バージョンは Corretto 26.0.1、25.0.3、21.0.11、17.0.19、11.0.31、8u492 です。

何が嬉しいのか
#

  • 最新のセキュリティ修正: OpenJDK に含まれる最新の脆弱性修正や改善が適用された、本番環境向けの Java ディストリビューションを無料で利用できます。
  • 複数プラットフォーム対応: Linux、Windows、macOS など、多様な環境で最新の Java 実行環境を維持できます。
  • パッケージマネージャー経由の更新: Linux システムでは、Corretto の Apt、Yum、または Apk リポジトリを構成することで、既存のツールを使用して簡単にアップデートを適用できます。

これまでとどう変わるのか
#

  • これまで: Corretto 8 には JavaFX バイナリが含まれて提供されていました。
  • これから: 今回のリリースが、JavaFX バイナリを含む最後の Corretto 8 となります。次回の 2026年7月の四半期アップデートからは、Corretto 8 に JavaFX バイナリは同梱されなくなります。

具体的なユースケース
#

  • 既存 Java アプリケーションの保守: セキュリティコンプライアンスを維持するために、実行中の Corretto 環境を最新のマイナーバージョンへ更新する。
  • Java 8 からの移行準備: JavaFX を使用している Corretto 8 ユーザーは、次回のアップデートまでに移行の検討を開始する。

Amazon EC2 C8i-flex インスタンスが欧州およびアジアパシフィック(ニュージーランド)リージョンで利用可能に
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon EC2 C8i-flex インスタンスが、欧州(アイルランド、ロンドン)およびアジアパシフィック(ニュージーランド)の各リージョンで利用可能になりました。これらのインスタンスは、AWS 専用に設計されたカスタム Intel Xeon 6 プロセッサを搭載しており、クラウド上の同等の Intel プロセッサと比較して最高水準のパフォーマンスと高速なメモリ帯域幅を提供します。

何が嬉しいのか
#

  • コスト効率の向上: 前世代の Intel ベースインスタンスと比較して、最大 15% の価格パフォーマンス向上と 2.5 倍의 メモリ帯域幅を実現します。
  • 大幅な性能向上: C7i-flex インスタンスと比較して最大 20% 高いパフォーマンスを発揮し、特に NGINX(最大 60% 高速)、AI 深層学習(最大 40% 高速)、Memcached(最大 35% 高速)などの特定ワークロードで顕著な効果が得られます。
  • 柔軟な導入: large から 16xlarge までの一般的なサイズを提供しており、計算リソースを完全には使い切らないアプリケーションの最初の選択肢として最適です。

これまでとどう変わるのか
#

  • これまで: 2024年5月に提供が開始された C7i-flex インスタンスが、Intel ベースの柔軟なコンピューティング集約型ワークロードの主力でした。
  • これから: 最新の Intel Xeon 6 プロセッサを搭載した C8i-flex が利用可能になり、より高いメモリ帯域幅と処理能力を、アイルランド、ロンドン、ニュージーランドなどのリージョンで低コストに活用できるようになります。

具体的なユースケース
#

  • Web・アプリケーションサーバー: 高いスループットが求められる NGINX などのフロントエンド。
  • インメモリデータベース: 高速なメモリ帯域を活かした Memcached や Redis などのキャッシュ層。
  • マイクロサービス: リソース利用率が変動する分散アプリケーションの基盤。

Amazon EC2 C8i インスタンスが欧州(アイルランド)およびアジアパシフィック(ニュージーランド)リージョンで利用可能に
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon EC2 C8i インスタンスが、欧州(アイルランド)およびアジアパシフィック(ニュージーランド)の両リージョンで利用可能になりました。これらのインスタンスは、最新のカスタム Intel Xeon 6 プロセッサを搭載しており、クラウドにおける Intel プロセッサベースのインスタンスとして最高のパフォーマンスとメモリ帯域幅を提供します。

何が嬉しいのか
#

  • 卓越したパフォーマンス: 前世代の Intel ベースインスタンスと比較して、価格パフォーマンスが最大 15% 向上し、メモリ帯域幅は 2.5 倍に拡大しています。
  • C7i からの進化: 2023年9月に登場した C7i インスタンスと比較して最大 20% の性能向上を実現。NGINX などの Web アプリケーションでは最大 60%、AI 深層学習モデルでは最大 40% の高速化が期待できます。
  • 大規模ワークロードへの対応: ベアメタル 2 サイズを含む 13 のサイズ展開があり、最大 96xlarge まで提供されるため、最も大規模なコンピューティング・メモリ集約型ワークロードにも対応可能です。

これまでとどう変わるのか
#

  • これまで: Intel ベースの最新高性能インスタンスとしては、2023年にリリースされた C7i が主力でした。
  • これから: 最新世代の C8i が登場し、特に高い CPU 使用率や広帯域なメモリを継続的に必要とするワークロードにおいて、さらなる性能アップとコスト効率の向上が可能になります。

具体的なユースケース
#

  • ハイパフォーマンスコンピューティング (HPC): 計算負荷の高い科学シミュレーションや財務分析。
  • 大規模データベース: 大容量メモリと高速なデータ転送を必要とするエンタープライズ DB。
  • ビデオエンコーディング: 高い CPU パワーを要求するリアルタイム動画処理。

ハイブリッド環境のネットワーキングを自動化する Amazon EKS Hybrid Nodes gateway が登場
#

投稿日: 2026年04月21日

何ができるようになったのか
#

Amazon EKS において、クラスターの VPC とオンプレミスで実行される「EKS Hybrid Nodes」間のネットワーキングを自動化する「Amazon EKS Hybrid Nodes gateway」が提供開始されました。このゲートウェイにより、コントロールプレーンから Webhook への通信や、クラウドとオンプレミスを跨ぐ Pod 間通信、さらには ALB や Prometheus などの AWS サービスとの連携が容易になります。

何が嬉しいのか
#

  • ネットワーク構成の簡素化: オンプレミスの Pod ネットワークをルーティング可能にするための複雑な設定変更や、ネットワークチームとの長期的な調整が不要になります。
  • 運用の自動化: Helm を使用して EC2 インスタンスにデプロイすると、ワークロードのスケールに合わせて VPC ルートテーブルが自動的に維持されます。
  • オープンソース: ゲートウェイのコードベースはオープンソースとして公開されており、透明性と拡張性が確保されています。

これまでとどう変わるのか
#

  • これまで: 2024年末に発表された EKS Hybrid Nodes を利用する際、ハイブリッド環境間の Kubernetes 通信を確立するには、手動でのルーティング設定や複雑なネットワークメンテナンスが課題となっていました。
  • これから: 専用のゲートウェイを導入することで、ハイブリッド環境特有 of ネットワーキングの複雑さが解消され、クラウドと同様の利便性でオンプレミスノードを運用できるようになります。

具体的なユースケース
#

  • ハイブリッド Kubernetes 運用: セキュリティ上の理由でオンプレミスに残す必要があるワークロードと、クラウド上の EKS クラスターをシームレスに統合する。
  • マルチサイト・アプリ: 地理的に離れたクラウドとオンプレミスのデータセンター間で、Pod 同士が相互に通信する必要がある分散アプリケーションの構築。

Amazon Location Service が米国、カナダ、豪州、英国での一括住所検証を提供
#

投稿日: 2026年04月21日

何ができるようになったのか
#

Amazon Location Service において、米国、カナダ、オーストラリア、イギリスの 4 カ国を対象とした「一括住所検証(Bulk Address Validation)」が利用可能になりました。大量の住所データを一度に検証・修正・標準化することができ、信頼スコアや配送可能性インジケーターとともに結果を取得できます。また、一部の国では住所の検証と同時に緯度経度情報(ジオコード)の取得も可能です。

何が嬉しいのか
#

  • データの正確性向上: 権威ある郵便データと照合することで、スペルミスや郵便番号の欠落、非標準の略語などを自動的に修正し、地域ごとの規則に合わせたフォーマットに統一します。
  • 運用効率の改善: S3 バケットに住所リストをアップロードし、新しい Jobs API を使用してジョブを送信するだけで、大規模な処理を自動化できます。
  • 信頼性の可視化: 各結果には信頼スコアが付与されるため、アプリケーション側で「どのデータをそのまま使い、どれを人手で確認するか」を判断できます。

これまでとどう変わるのか
#

  • これまで: 大量の住所データのクレンジングや標準化を行うには、個別に API を呼び出すか、サードパーティのツールや外部サービスを利用する必要がありました。
  • これから: AWS のマネージドサービス内で、S3 を介したバッチ処理として大規模かつセキュアに住所検証を実行できるようになります。

具体的なユースケース
#

  • CRM 移行時のデータクレンジング: 顧客データベースを新しいシステムへ移行する前に、住所情報を最新の標準形式に整理する。
  • 配送トラブルの防止: 出荷前に配送先住所が有効かどうかを確認し、宛先不明による返送リスクを低減する。
  • 不正検知: 本人確認の一環として住所の有効性を検証し、なりすましや詐欺を防止する。

Amazon MSK Serverless が大阪、ニュージーランドなど新たに 13 のリージョンに拡大
#

投稿日: 2026年04月21日

何ができるようになったのか
#

フルマネージドな Apache Kafka サービスである Amazon MSK のクラスタータイプの一つ、「MSK Serverless」が新たに 13 のリージョンで利用可能になりました。対象にはアジアパシフィック(大阪、ニュージーランド、香港、ハイデラバード、ジャカルタ、マレーシア、メルボルン、タイ)、欧州(ミラノ、スペイン、チューリッヒ)、イスラエル(テルアビブ)、メキシコ(中部)が含まれます。

何が嬉しいのか
#

  • 管理コストの極小化: MSK Serverless は、クラスターの容量管理やスケーリングを AWS が自動的に行います。コンピューティングとストレージのリソースが需要に合わせて自動調整されるため、開発者はアプリケーションの構築に専念できます。
  • オンデマンドな利用: Apache Kafka を使用したデータストリーミングを、必要な時に必要な分だけ利用でき、複雑なプロビジョニング作業が不要です。
  • 広範なリージョン展開: 大阪を含む多くのリージョンで利用可能になったことで、地理的に近い環境での低レイテンシなデータ処理や、データレジデンシー(データ保存場所)の要件を満たしやすくなります。

これまでとどう変わるのか
#

  • これまで: これらのリージョンで Apache Kafka を利用する場合、Amazon MSK のプロビジョンド型クラスターを構築してインスタンスサイズやストレージを手動で管理するか、自前で Kafka サーバーを運用する必要がありました。
  • これから: 日本国内(大阪)を含むより多くの場所で、インフラ管理不要なサーバーレス型の Apache Kafka を手軽に開始できるようになります。

具体的なユースケース
#

  • イベント駆動型アプリケーション: ユーザーの操作ログやセンサーデータなどのストリームデータを、管理負担なくリアルタイムに処理する。
  • ログ集約・分析: 分散されたシステムからのログを Kafka に集約し、後続の分析基盤へオンデマンドで受け渡す。
  • マイクロサービス間の連携: 疎結合なサービス間のメッセージバスとして、運用負荷の低い Kafka 基盤を活用する。

Amazon OpenSearch Service がソフトウェア更新のロールバックをサポート
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon OpenSearch Service において、適用されたサービスのソフトウェアアップデートを以前のバージョンにロールバック(差し戻し)できるようになりました。アップデート適用後 15 日以内であれば、新しい RollbackServiceSoftwareUpdate API、AWS CLI、または管理コンソールからセルフサービスで実行可能です。

何が嬉しいのか
#

  • リスク管理の強化: アップデート後に予期せぬ動作やパフォーマンス低下が発生した場合、迅速に安定していた以前の状態に戻すことができます。
  • 運用のコントロール性向上: 従来のように AWS サポートに依頼することなく、利用者側の判断で即座にロールバックを開始できます。
  • 安全なデプロイ: ロールバックにはブルー/グリーンデプロイメントが使用されるため、ダウンタイムを最小限に抑えつつ安全にバージョンの切り戻しが行われます。

これまでとどう変わるのか
#

  • これまで: 一度ソフトウェアアップデートを適用してしまうと、ユーザー自身の手で以前のバージョンに戻すオプションはありませんでした。不具合が生じた場合は、修正を待つか複雑な復旧作業が必要になるケースがありました。
  • これから: 「アップデートは適用したいが、何かあった時にすぐ戻したい」という運用の安心感が向上し、ドメインのメンテナンス作業をより柔軟に管理できるようになります。

具体的なユースケース
#

  • 本番環境のメンテナンス: 新しいサービスソフトウェアを適用した直後にアプリケーションとの互換性問題が見つかった場合、速やかにロールバックしてサービスを継続する。
  • 検証作業: アップデートによるパフォーマンスの変化を実環境でテストし、期待値に届かない場合に元の状態に戻して構成を再検討する。

Amazon SageMaker AI が Qwen3.5 モデルのサーバーレスカスタマイズをサポート
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon SageMaker AI において、アリババクラウドの最新オープンウェイトモデル「Qwen3.5」のサーバーレスでのモデルカスタマイズが可能になりました。Qwen3.5 の 4B、9B、および 27B パラメータモデルに対して、教師ありファインチューニング (SFT) および強化学習ファインチューニング (RFT) を適用できます。

何が嬉しいのか
#

  • 独自の専門知識の統合: 自社保有のデータを使用して基盤モデルを調整することで、特定のドメイン知識、専門用語、および品質基準をより正確に反映したモデルを作成できます。
  • サーバーレスによる効率化: SageMaker AI がインフラのプロビジョニングとトレーニングのオーケストレーションをすべて処理するため、クラスター管理の手間がなく、使用した分だけ支払うコスト効率の良い運用が可能です。
  • 最新アーキテクチャの活用: Qwen2.5 から飛躍的に進化した Qwen3.5(ハイブリッド線形アテンションや疎な MoE を採用)を、自社のワークロードやトーンに合わせて最適化できます。

これまでとどう変わるのか
#

  • これまで: SageMaker AI 上で Qwen3.5 のベースモデルをデプロイして推論することは可能でしたが、モデルを特定のタスクやドメインに合わせて再学習(ファインチューニング)するには、自前で環境を構築するか、他の手法を検討する必要がありました。
  • これから: SageMaker Studio のモデルページや Python SDK から直接、管理不要なサーバーレス環境で Qwen3.5 のカスタマイズジョブを実行できるようになります。

具体的なユースケース
#

  • ドメイン特化型チャットボット: 業界独自の用語や社内規約を理解した、高精度なカスタマーサポート AI の構築。
  • 組織のトーンに合わせた生成: 組織のブランドボイスや文書スタイルを学習させ、一貫性のあるコンテンツ生成を実現する。
  • 特定タスクの精度向上: 構造化データの変換や複雑なコーディング支援など、特定のタスクにおいてラベル付きデータを用いた精度向上を図る。

AWS Neuron SDK 2.29.0 がリリース:NKI と Neuron Explorer が正式版に
#

投稿日: 2026年04月17日

何ができるようになったのか
#

AWS Neuron SDK 2.29.0 がリリースされました。主な変更点は以下の通りです:

  • NKI と Neuron Explorer の正式版昇格: Neuron Kernel Interface (NKI) とプロファイリングツールの Neuron Explorer が Beta から Stable(正式版)になりました。
  • CPU シミュレーターの導入: Trainium ハードウェアがなくても、手元の CPU 環境で NKI カーネルの記述・テスト・デバッグが可能になりました。
  • NKI ライブラリの拡充: Transformer 向けメッシュカーネルや通信・計算融合プリミティブなど、7 つの新しい実験的カーネルが追加されました。
  • 推論の最適化: Qwen3 VL などの最新ビジョン言語モデルへの対応が強化されました。

何が嬉しいのか
#

  • 開発効率の劇的な向上: CPU シミュレーターにより、高価なアクセラレータインスタンスを占有することなく、標準的な Python デバッグツールを用いてローカル環境でカスタムカーネルの開発が進められます。
  • 低レベル制御の安定化: NKI が Stable になったことで、Trainium や Inferentia の NeuronCore に対して Python ベースの構文で直接・安定してプログラムを記述できるようになりました。
  • プロファイリングの容易化: Neuron Explorer が VS Code 拡張機能として提供され、マルチデバイスの解析もサポートされたため、ボトルネックの特定がスムーズになります。

これまでとどう変わるのか
#

  • これまで: NKI や Neuron Explorer はベータ版であり、一部の機能や安定性に制限がありました。また、カーネルの動作確認には常に Trainium/Inferentia 実機が必要でした。
  • これから: 正式版として安心して利用できるだけでなく、シミュレーターを活用した柔軟な開発サイクルが可能になり、より高度で最適化された AI モデルの構築が容易になります。

具体的なユースケース
#

  • カスタム AI カーネルの開発: 標準の演算では不十分な特定のニューラルネットワーク層に対して、アクセラレータの性能を最大限に引き出す独自のカーネルを実装する。
  • 最新 LLM/VLM の高速推論: Qwen3 VL などのマルチモーダルモデルを、Neuron SDK の最適化パスを用いて効率的に実行する。

AWS Data Exports がクロスアカウントでの配信をサポート
#

投稿日: 2026年04月14日

何ができるようになったのか
#

AWS Data Exports において、Standard エクスポート(CUR 2.0、FOCUS、コスト最適化推奨、炭素排出量レポートなど)を、他の AWS アカウントの Amazon S3 バケットに直接配信できるようになりました。これにより、FinOps チームは管理アカウントからの課金データを、組織内の別のアカウント(分析用アカウントなど)へ自動的に送信できます。

何が嬉しいのか
#

  • 運用コストの削減: データのレプリケーションプロセスを構築・維持する必要がなくなり、複数のバケットに重複してデータを保存するためのストレージ料金も節約できます。
  • セキュリティの向上: 非管理業務(コスト分析など)を管理アカウントから切り離し、専用のアカウントで実行するというセキュリティのベストプラクティスを容易に実現できます。
  • 柔軟な権限管理: 送信側アカウントがエクスポート先を指定し、受信側(バケット所有者)がバケットポリシーで特定のソースアカウントからの配信を許可することで、双方が明示的にデータの流れを制御できます。

これまでとどう変わるのか
#

  • これまで: 管理アカウントで生成された CUR などのエクスポートデータは、そのアカウント内の S3 バケットに保存されるのが一般的でした。他アカウントで分析を行う場合は、S3 レプリケーションなどを自前で構成する必要がありました。
  • これから: エクスポート作成時に宛先バケットを指定するだけで、直接別のアカウントにデータを流し込めるようになり、パイプラインが大幅に簡素化されます。

具体的なユースケース
#

  • 集中型 FinOps 分析: 組織全体の課金データを、コスト管理ツールや BI ツール(Amazon QuickSight など)が稼働する単一の分析用 AWS アカウントに集約する。
  • セキュリティの分離: 管理アカウントへのアクセスを最小限に抑えつつ、別の監視用アカウントでコストの異常検知や分析を行う。

AWS Glue が Snowflake 接続での OAuth 2.0 をサポート
#

投稿日: 2026年04月21日

何ができるようになったのか
#

AWS Glue のネイティブ Snowflake コネクタにおいて、OAuth 2.0 による認可と認証がサポートされました。これにより、ユーザー資格情報を直接共有することなく、 Snowflake からのデータの読み書きが可能になります。

何が嬉しいのか
#

  • セキュリティの強化: 永続的なパスワードや秘密鍵の代わりに、安全で一時的なトークンベースの認可を使用できます。資格情報管理の手間が省け、漏洩リスクを低減できます。
  • きめ細かなアクセス制御: OAuth を使用することで、ユーザーやアプリケーションごとに詳細な権限を定義し、最小権限の原則を適用しやすくなります。
  • コンプライアンスの遵守: トークンベースの認証により監査性が向上し、組織全体でのデータアクセスパターンの追跡・監視が容易になります。

これまでとどう変わるのか
#

  • これまで: AWS Glue から Snowflake に接続するには、永続的なユーザー名・パスワード、または秘密鍵を AWS Secrets Manager 等で管理して使用する必要がありました。
  • これから: OAuth 2.0 を利用することで、パスワードレスな統合が可能になり、エンタープライズレベルのセキュリティ基準を満たしながら、よりシンプルかつ安全にデータパイプラインを構築できるようになります。

具体的なユースケース
#

  • エンタープライズデータ統合: Snowflake に蓄積された業務データを、OAuth 認証を介して AWS Glue で安全に抽出し、データレイクへ加工・転送する。
  • セキュアなデータ共有: 外部ベンダーや別部門とのデータ共有において、一時的なトークンを用いてアクセスを許可し、パスワードの共有を回避する。

Amazon EC2 for SQL Server HA がヘルス通知をサポート
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon EC2 上で構築された SQL Server の高可用性(HA)クラスターにおいて、有効な HA ステータスが検出できない場合に、AWS Health Dashboard を通じて通知を受け取れるようになりました。この通知は、AWS Health だけでなく、Amazon EventBridge やメールなど複数のチャネルで受信可能です。

何が嬉しいのか
#

  • ダウンタイムのリスク軽減: HA 構成に問題が生じた際に即座に把握できるため、迅速な対応が可能になり、意図しないシステムの停止時間を最小限に抑えられます。
  • コストの最適化: ライセンス込み(License Included)のコストを削減するために EC2 SQL HA クラスターを登録しているユーザーにとって、構成の不備による不要な課金を避けるためのガイドラインとして役立ちます。
  • 運用の自動化: EventBridge と連携することで、異常検知時に Lambda 関数を実行して自動復旧を試みるなど、運用フローの自動化が容易になります。

これまでとどう変わるのか
#

  • これまで: SQL Server HA クラスターの状態に異常があっても、AWS 側から直接的な通知が行われる仕組みはなく、ユーザー自身で監視を構成してステータスを確認する必要がありました。
  • これから: AWS が標準のヘルス通知として異常を知らせてくれるようになり、運用の負担が軽減されるとともに、問題発生時の初動を早めることができます。

具体的なユースケース
#

  • ミッションクリティカルな DB 運用: 24時間365日の稼働が求められる SQL Server 環境において、冗長性が失われたことを検知して即座に保守担当者へ通知する。
  • コスト監視と連動した通知: HA 構成の不備による課金への影響を防ぐため、設定ミスを Health Dashboard で早期に発見する。

Amazon CloudWatch Logs Insights が JOIN およびサブクエリをサポート
#

投稿日: 2026年04月20日

何ができるようになったのか
#

Amazon CloudWatch Logs Insights のクエリ言語において、新たに JOIN およびサブクエリ(sub-query)コマンドが利用可能になりました。これにより、複数のロググループにまたがるデータの関連付けや、一つのクエリの結果を別のクエリの条件として利用する複雑な分析を、単一の操作で実行できます。

何が嬉しいのか
#

  • トラブルシューティングの迅速化: 異なるサービスやロググループ間でエラーを相関させたり、複数のデータソースからの情報を統合したりする際に、複数のクエリを個別に実行して手動で結果を突き合わせる手間がなくなります。
  • 高度な相関分析: 例えば、特定の時間帯にエラーが多発しているサービスをサブクエリで特定し、その結果をもとに JOIN を使って別ロググループのパフォーマンス指標と結合し、影響範囲を特定するといったことが可能です。
  • 一元化された可視化: 分散システム全体のイベントの流れやユーザーセッションの追跡を、一つの強力なクエリで完結させ、迅速な意思決定に繋げられます。

これまでとどう変わるのか
#

  • これまで: 複数のロググループを跨ぐ分析を行いたい場合、それぞれのロググループに対して個別にクエリを発行し、CSV 出力などを行ってから Excel や独自のツールで結合・分析を行う必要がありました。
  • これから: Logs Insights のコンソールや API から、SQL のような感覚で直接ログの結合やネストした検索が行えるようになり、分析の柔軟性とスピードが飛躍的に向上します。

具体的なユースケース
#

  • 分散システムの相関分析: アプリケーションログのエラーと、関連するインフラログ(VPC フローログなど)を JOIN して、ネットワーク要因の有無を調査する。
  • 特定条件での絞り込み分析: サブクエリを使用して、過去 24 時間で 20 回以上のエラーを出したサービスのみを抽出し、それらのサービスの平均レスポンス時間を算出する。
  • セキュリティイベントの追跡: 複数の認証サービスやアクセスログを結合し、特定の IP アドレスからの不審な挙動を一括で追跡する。

Amazon EC2 がマネージドリソースの表示設定機能を発表
#

投稿日: 2026年04月22日

何ができるようになったのか
#

Amazon EC2 において、他の AWS サービス(Amazon EKS、ECS、AWS Lambda、Amazon WorkSpaces など)によってプロビジョニング・管理されている「マネージドインスタンス」および関連リソース(EBS ボリューム、スナップショット、ネットワークインターフェイスなど)を、EC2 コンソールや API の一覧から非表示にできる設定が導入されました。

何が嬉しいのか
#

  • コンソールの整理: 自分で直接管理している(セルフマネージドな)リソースと、AWS 側が管理責任を負うリソースを明確に分離できます。大量のマネージドリソースに埋もれることなく、必要なリソースをすぐに見つけられるようになります。
  • 誤操作の防止: AWS サービスによって自動管理されているリソース(パッチ適用やヘルスチェックが自動で行われるもの)を誤って手動で変更・削除してしまうリスクを低減できます。
  • API レスポンスの簡素化: describe-instances などの API 呼び出しにおいて、デフォルトでマネージドリソースが除外されるため、レスポンスデータが軽量になり、プログラム側でのフィルタリング処理も容易になります。

これまでとどう変わるのか
#

  • これまで: 管理責任が AWS 側にあるリソースであっても、デフォルトではユーザーが作成したリソースと並んで表示されていました。そのため、リソース一覧が煩雑になり、どれが自分で管理すべきものかが分かりにくい状態でした。
  • これから: 新しく作成されるマネージドリソースはデフォルトで非表示となります。共有責任モデルに基づき、AWS が構成・パッチ・ヘルス管理を担当するリソースを意識せずに済むクリーンな環境を提供します(設定により再表示も可能です)。

具体的なユースケース
#

  • 大規模な EKS/ECS 運用の効率化: クラスターによって自動生成された多数の EC2 ノードや EBS を非表示にし、手動で起動した踏み台サーバーなどの管理に集中する。
  • 開発効率の向上: API を使用してインスタンス一覧を取得する際に、管理対象外のリソースをフィルタリングする手間を省く。

AWS Lambda Durable Functions が大阪を含む 16 のリージョンで新たに利用可能に
#

投稿日: 2026年04月22日

何ができるようになったのか
#

2025年12月に発表された「AWS Lambda Durable Functions」が、新たに 16 の AWS リージョンで利用可能になりました。対象には、アジアパシフィック(大阪、ソウル、台北、ハイデラバード、ジャカルタ、メルボルン)、欧州(ロンドン、パリ、チューリッヒ)、カナダ(中部、西部)、イスラエル(テルアビブ)、中南米(サンパウロ、メキシコ)、アフリカ(ケープタウン)、米国西部(北カリフォルニア)が含まれます。

何が嬉しいのか
#

  • 長時間実行とレジリエンス: 従来の Lambda の 15 分制限を超えて、数日間、数週間、あるいは数ヶ月にわたるワークフローを構築できます。自動的な進捗チェックポイント保存により、失敗時も途中から再開可能です。
  • 低コストな待機: 「ステップ」や「待機」のプリミティブを使用することで、外部イベントや承認を待っている間はコンピューティング料金が発生しません。
  • ネイティブな開発体験: Python (3.13/3.14)、Node.js (22/24)、Java (17+) のコード内で直接、長時間実行されるマルチステップアプリケーションや AI ワークフローを記述できます。

これまでとどう変わるのか
#

  • これまで: 2025年末の re:Invent で発表された当初、利用可能なリージョンが限られていました。大阪リージョンなど、日本国内や周辺地域のユーザーは東京リージョンなどを経由する必要がある場合がありました。
  • これから: 大阪リージョンを含むより多くの場所で、データレジデンシー要件(データの保存場所制限)を満たしつつ、低レイテンシで高度なサーバーレス・ワークフローを展開できるようになります。

具体的なユースケース
#

  • 複雑な注文処理システム: 決済、在庫確保、配送指示などの複数のステップを跨ぎ、必要に応じて人間の承認を数日間待つようなフロー。
  • AI ワークフローのオーケストレーション: 長時間を要する大規模言語モデル(LLM)のファインチューニングや、多段階의 データ処理プロセス。
  • ユーザーオンボーディング: アカウント作成から数日後のフォローアップメール送信までを、単一のコードベースで管理する。

AWS Network Firewall マネージドルールの強化:大規模なドメイン・IP リストをサポート
#

投稿日: 2026年04月22日

何ができるようになったのか
#

AWS Network Firewall において、AWS Marketplace パートナーから提供されるマネージドルールが強化されました。パートナー企業は、最大 1,000 万件のドメイン名インジケーターと、最大 100 万件の IP アドレスを含むルールグループを提供できるようになりました。 また、Infoblox による高リスクドメイン保護の拡大、Lumen によるコマンド&コントロール (C2) 攻撃防止ルールの導入、ThreatSTOP による制裁リスト(OFAC、EU、日本、国連)対応ルールの追加など、コンテンツも大幅に拡充されています。

何が嬉しいのか
#

  • より強力な脅威インテリジェンス: 市場をリードするセキュリティベンダーの膨大な脅威データを、自社のファイアウォールに直接、大規模に組み込むことができます。
  • 運用の簡素化: 独自に脅威フィードを管理・更新する手間をかけずに、常に最新の保護ルールを適用できます。
  • グローバルコンプライアンスへの対応: 日本や EU を含む国際的な制裁リストに基づいた通信遮断が容易になり、法規制の遵守を技術的にサポートします。
  • 利用可能地域の拡大: ジャカルタ、チューリッヒ、イスラエルなど、新たに 9 つのリージョンで Marketplace パートナーのルールが利用可能になりました。

これまでとどう変わるのか
#

  • これまで: マネージドルールで扱えるドメインや IP の数には、パートナー側で制限がありました。また、特定のリージョンではパートナー提供のルールが利用できない場合がありました。
  • これから: 数百万規模のドメインや IP リストを用いた、より広範囲かつ高精度なフィルタリングが可能になります。また、世界中のより多くの拠点で最新のセキュリティルールを導入できるようになります。

具体的なユースケース
#

  • 悪意のある通信の遮断: Infoblox や Lumen のルールを使用し、フィッシングサイトへのアクセスやマルウェアの C2 通信をゲートウェイレベルで自動的にブロックする。
  • コンプライアンスの遵守: ThreatSTOP のルールを導入し、制裁対象国や特定の組織に関連する IP アドレスとの通信を制限する。

Amazon SageMaker JumpStart で Qwen3 / 3.5 の 5 つの最新モデルが利用可能に
#

投稿日: 2026年04月21日

何ができるようになったのか
#

Amazon SageMaker JumpStart において、Qwen(通義千問)シリーズの最新 5 モデルが追加されました。

  • Qwen3-Coder-Next: コーディングエージェント向け。長時間の推論や複雑なツール利用に優れています。
  • Qwen3-30B-A3B: 汎用アシスタント向け。「思考モード」と「非思考モード」の切り替えをサポート。
  • Qwen3-30B-A3B-Thinking-2507: 数学や科学、コーディングの複雑な推論に特化。
  • Qwen3-Coder-30B-A3B-Instruct: リポジトリ規模のコンテキスト理解を持つコーディングエージェント用。
  • Qwen3.5-4B: 軽量なマルチモーダルモデル。201 言語をサポート。

何が嬉しいのか
#

  • 多様なニーズへの対応: 数学的な推論を重視するタスク、軽量なエッジ・マルチモーダル展開、大規模なコードベースを扱う開発支援など、用途に合わせた最適なモデルを即座に利用できます。
  • 最新のアーキテクチャ: Qwen3 シリーズの「線形アテンション」や「疎な MoE」といった進化した機能を、AWS のマネージド環境で活用できます。
  • 簡単なデプロイ: SageMaker Studio から数クリック、または Python SDK を通じて、インフラ構築の手間なく最新の基盤モデルをデプロイし、推論を開始できます。

これまでとどう変わるのか
#

  • これまで: SageMaker JumpStart では Qwen2.5 などの前世代モデルが提供されていました。最新の Qwen3 シリーズを利用するには、自前で環境を構築してデプロイする必要がありました。
  • これから: 最新の推論能力やマルチモーダル性能、言語サポート(201言語)を備えた Qwen モデル群を、AWS 上でセキュアかつ簡単に統合できるようになります。

具体的なユースケース
#

  • AI 搭載コーディングアシスタント: Qwen3-Coder シリーズを使用して、CLI や IDE 上で複雑なリファクタリングやデバッグを支援するエージェントを構築する。
  • 多言語カスタマーサポート: Qwen3.5-4B の広範な言語サポートと軽量さを活かし、多言語対応の対話システムを低コストで展開する。
  • 高度な科学・数学計算の自動化: Thinking モデルを使用して、専門的な論文の要約や複雑な計算問題の解決を支援する。

Amazon SageMaker AI が生成 AI 向けの最適化された推論レコメンデーションを開始
#

投稿日: 2026年04月21日

何ができるようになったのか
#

Amazon SageMaker AI において、生成 AI モデルに特化した「推論レコメンデーション(Inference Recommendations)」機能が提供されました。モデル開発者が手動でベンチマークや最適化を行わなくても、トラフィックパターンや目標(コスト、レイテンシ、スループット)を指定するだけで、最適なインスタンスタイプとデプロイ設定を提案してくれます。

何が嬉しいのか
#

  • 試行錯誤の排除: SageMaker AI が NVIDIA AIPerf を使用し、実際の GPU インフラ上で複数の構成をベンチマークします。これにより、コスト、最初のトークン生成時間 (TTFT)、トークン間レイテンシなどの検証済みメトリクスを直接取得できます。
  • 本番移行の加速: インフラ管理ではなく、精度の高いモデルの構築に専念でき、最適なパフォーマンス設定で迅速に本番環境へ移行できます。
  • コストパフォーマンスの最大化: 異なるインスタンスタイプ間の性能とコストを比較できるため、要件を満たしつつ最も安価な選択肢を容易に特定できます。

これまでとどう変わるのか
#

  • これまで: 生成 AI モデルを効率的にデプロイするには、エンジニアが手動で様々なインスタンスタイプを試し、レイテンシやスループットの計測を繰り返す必要がありました。このプロセスは時間がかかり、最適な構成を見逃すリスクもありました。
  • これから: モデル、トラフィック、パフォーマンス目標を定義するだけで、AWS が最適な構成を自動的に分析・提示してくれるようになり、推論コストの最適化とデプロイまでの期間短縮が実現します。

AWS Secrets Manager が MongoDB Atlas と Confluent Cloud のシークレット管理に対応
#

投稿日: 2026年04月22日

何ができるようになったのか
#

AWS Secrets Manager の「マネージド外部シークレット(Managed External Secrets)」機能が拡張され、新たに MongoDB Atlas と Confluent Cloud に対応しました。これにより、これらのサードパーティサービスの認証情報を、AWS Secrets Manager から直接、集中管理および自動回転(ローテーション)できるようになります。

何が嬉しいのか
#

  • Lambda 管理が不要: 従来のようなカスタムの Lambda ローテーション関数を自前で構築・維持する必要がありません。パートナー提供のロジックを使用して、AWS が安全にシークレットを更新します。
  • 多様な認証方式への対応:
    • MongoDB Atlas: データベースユーザー(SCRAM 認証)およびサービスアカウント(OAuth クライアント ID / シークレット)をサポート。
    • Confluent Cloud: サービスアカウントの API キー回転をサポート。
  • セキュリティの自動化: 自動回転がデフォルトで有効になっており、コード内へのシークレットのハードコードを排除し、運用オーバーヘッドを大幅に削減できます。

これまでとどう変わるのか
#

  • これまで: 2025年11月にリリースされたこの機能は、当初 Salesforce、Snowflake、BigID のみをサポートしていました。MongoDB や Confluent を利用しているユーザーは、依然として独自のローテーションロジックを管理する必要がありました。
  • これから: データパイプラインやストリーミング処理で頻繁に併用される MongoDB Atlas や Confluent Cloud も AWS Secrets Manager の一元管理下に入り、より安全かつシンプルなマルチプラットフォーム運用が可能になります。

具体的なユースケース
#

  • モダンなデータスタックの運用: MongoDB Atlas をデータベース、Confluent をメッセージバスとして使用するアプリケーションにおいて、両方のシークレットを AWS Secrets Manager で一括管理し、定期的な自動更新を行う。
  • セキュリティガバナンスの統合: サードパーティサービスの認証情報も AWS の標準的なシークレット管理フローに統合し、組織全体のセキュリティポリシーを均一に適用する。

Amazon SageMaker Unified Studio が IAM Identity Center のマルチリージョン複製に対応
#

投稿日: 2026年04月21日

何ができるようになったのか
#

Amazon SageMaker Unified Studio において、AWS IAM Identity Center (IdC) のマルチリージョン複製機能がサポートされました。これにより、IdC インスタンスが存在するリージョンとは異なる複数のリージョンに、SageMaker Unified Studio ドメインを展開し、中央集中型のアイデンティティ管理を維持したままシングルサインオン (SSO) アクセスを提供できます。

何が嬉しいのか
#

  • コンプライアンスの遵守: 金融やヘルスケアなどの規制の厳しい業界において、アイデンティティ管理は一箇所に集約しつつ、機密データの処理は特定のリージョン(データレジデンシー要件を満たす場所)で行うといった柔軟な構成が可能になります。
  • グローバル運用の簡素化: 世界中に分散した開発チームに対して、各地域のリージョンに近い場所に SageMaker ドメインを配置しつつ、認証基盤は一つに統合してシームレスな SSO 体験を提供できます。
  • データ主権の維持: データの保存場所に関する法的制約をクリアしながら、組織全体のユーザー管理効率を損なうことがありません。

これまでとどう変わるのか
#

  • これまで: SageMaker ドメインを展開する際、認証基盤である IAM Identity Center との連携においてリージョン間の制約を意識する必要がありました。
  • これから: 東京、ソウル、シンガポール、ロンドン、パリ、フランクフルト、サンパウロ、米国各地など、SageMaker Unified Studio がサポートされている全てのリージョンにおいて、IdC の複製機能を活用した柔軟かつセキュアなマルチリージョン展開が容易になります。

具体的なユースケース
#

  • グローバルな AI 開発プロジェクト: 欧州や北米、アジアに分散したチームが、それぞれの地域のリージョンにある SageMaker Unified Studio を利用し、認証は本社の IdC インスタンスで一元的に行う。
  • 規制対応が必要なデータ処理: 顧客データは必ず特定の国内リージョンで処理しなければならないという要件に対し、そのリージョンにドメインを配置して SSO アクセスを実現する。
Reply by Email

関連記事

【AWSデイリーアップデート 22件】ECRがプッシュ時のリポジトリ作成をサポート 他
· loading · loading
【AWSデイリーアップデート 25件】Amazon AuroraがAmazon RDSデータベースプレビュー環境でPostgreSQL 18.1をサポート 他
· loading · loading
【AWSデイリーアップデート 43件】Amazon Bedrockに新モデル、EC2高性能インスタンス、S3オブジェクトサイズ50TB対応、AWS SupportのAI強化など
· loading · loading