イベント

AWS、2日目基調講演でAmazon BedrockのAIモデル提供企業に2社追加を発表

“モデルストア”Bedrock Marketplaceや、Bedrockの各種機能拡張なども

 クラウド・サービス・プロバイダー(CSP)のAWS(Amazon Web Services)は、12月2日~12月6日(米国時間)に、同社の年次イベント「re:Invent 2024」(リ・インベント2024)を米国ネバダ州ラスベガス市において開催している。

 会期3日目となる12月4日には、同社 AI・データ担当 副社長 スワミ・シヴァスブラマニアン氏によるAIに特化した基調講演が行われ、同社の生成AI向けマネージドサービスとなる「Amazon Bedrock」に関する新しい発表などが行われた。

 この中でAWSは、同社のBedrockで利用できる生成AIのファンデーションモデルとして、poolsideの「malibu」「point」、Luma AIの「Ray 2」、Stability AIの「Stable Diffusion 3.5」が追加されたことが明らかにされた。今回、poolsideとLuma AIの2社が新たに加わることで、Bedrockにファンデーションモデルを提供している企業は9社に達したことになる。

AWS AI・データ担当 副社長 スワミ・シヴァスブラマニアン氏

企業や産業全体が抱える固有の課題を、生成AIにより解決していくことがAWSのミッション

 AWSのシヴァスブラマニアン氏は、「すべての企業や産業は、それぞれに固有の課題を抱えており、生産性を上げたり、イノベーションを起こしたりするには、そうした課題を解決していく必要がある」と述べ、生成AIを活用できるような環境を整えることで、それぞれの企業や産業が抱えている課題を解決していくことが重要だと強調した。

 シヴァスブラマニアン氏は「飛行機の開発は1903年のライト兄弟の成功でいきなり始まったのではなく、古くは15世紀のレオナルド・ダ・ヴィンチの計画に始まり、そこに至るまでにいくつものトライと失敗の上に構築されたものだ」と述べ、飛行機の開発も有名なライト兄弟の成功がいきなり起きたのではなく、そこに至るまでは数々の失敗があったことを指摘した。

レオナルド・ダ・ヴィンチなど数々のトライや失敗の上に、ライト兄弟の成功がある

 その上で"I start where the last man left Off(私は最後の人がやめたところから始める)"という有名な発明家のトーマス・エディソンの言葉を紹介し、生成AIへの取り組みも同様で、いきなり生成を始めたのではなく、これまでのマシンラーニング/ディープラーニングベースのAIなど、従来のAI開発の積み重ねの上に、現在のトランスフォーマーモデルの生成AIがあると強調。従来のAI環境の成果などもうまく使いながら生成AIに取り組むことが、成功の近道だと強調した。

トーマス・エディソンの名言「I start where the last man left Off(私は最後の人がやめたところから始める)」
マシンラーニングからトランスフォーマーモデルへ

 そして、今こそ、生成AIが「新しい価値」を生み出す時代に突入しつつあると述べ、この生成AIを活用するというトレンドに乗り遅れてはならないと、詰めかけた顧客に呼びかけた。

生成AIが新しい価値を生み出す時代に入りつつある

Bedrockが選択できるファンデーションモデルが7社から9社に増加し、さらに選択肢の幅が広がる

 今回、シヴァスブラマニアン氏はいくつかの新しい発表を行ったが、その中で最も注目を集めたのは、Amazon Bedrockと同社が読んでいる生成AIの開発環境に、新しい生成AIのファンデーションモデルが追加されたことだ。

Amazon Bedrock

 AWSのBedrockは、AIモデルの選択、AIエージェントの構築、コストモデルの選択、AIの制御(ガードレール機能)、エージェントの協調機能といった機能は一括で提供されており、顧客企業が専用のハードウェアなどを用意しなくても、生成AIのAIエージェントを比較的容易に構築できる、マネージドサービスだ。

 前日の基調講演で、このBedrock向けに、AWSの関連会社であるAmazonが新しいファンデーションモデルとして「Amazon Nova」を発表し注目を集めたが、AWS CEOのマット・ガーマン氏は「生成AIのファンデーションモデルも同じことで、使う側が自由に必要なファンデーションモデルを選べるようになっている点が重要だ」と述べ、顧客がAIエージェントを作成する時に、自由にファンデーションモデルを選べることが重要だと強調していた。

前日の基調講演ではAmazon Novaが発表されている

 シヴァスブラマニアン氏の発表はそれを受けたもので、Bedrockのファンデーションモデルとして、これまで選択できた「AI21 Labs、Anthropic、Cohere、Meta、Mistral AI、Stabilability AI、Amazon」の7社に加えて、新たにpoolside、Luma AIという2社が加わり、9社になったことを明らかにした。

Amazon Bedrockで選べるファンデーションモデル、これまで7社から提供されてきた

 poolsideは「malibu」「point」の2つを追加する計画で、Luma AIは「Ray 2」というファンデーションモデルをBedrock向けに提供する。

poolsideの「malibu」「point」を追加
Luma AIは「Ray 2」を追加

 またStability AIは、以前から提供してきたものに加えて、「Stable Diffusion 3.5」を追加したことも同時に明らかにされている。

Stability AIの「Stable Diffusion 3.5」が追加された

 なおシヴァスブラマニアン氏の基調講演には、Luma AI CEO アミット・ジャイン氏が登壇し、AWSとLuma AIの提携に関して説明を行った。

Luma AI CEO アミット・ジャイン氏

 AWSによれば、malibuは2025年前半に提供予定。Stable Diffusion 3.5 LargeとRay 2は、間もなく登場というスケジュールで提供されていく計画になっているという。

“モデルストア”となるAmazon Bedrock Marketplaceや、Bedrockの各種機能を拡張

 次いで、シヴァスブラマニアン氏は「Amazon Bedrock Marketplace」の計画も発表し、Bedrockにおいて標準でサポートされるファンデーションモデルだけでなく、AWSがBedrockの顧客向けに提供している“モデルストア”経由で、100を超える特定用途向けモデルの提供を行う計画も明らかにした。

 AWSによれば、日本からはPreferred Networks、Stockmark、KARAKURIなどのAIモデルが既に提供開始されているとのことだ。

Amazon Bedrock Marketplace

 Bedrock関連ではほかにも、繰り返し使用されるトークンを安全にキャッシュして処理を効率化する「Prompt Caching」、Bedrockがプロンプトの内容に応じて最適なファンデーションモデルを選択して入力を渡す「Intelligent Prompt Routing」、KendraにGenAI Enterprise Edition indexが追加された「Amazon Kendra Generative AI Index」を発表した。

Prompt Caching
Intelligent Prompt Routing
Amazon Kendra Generative AI Index

 また、Amazon Bedrock Knowledge Basesの拡張として「Structured data retrieval」や「GraphRAG」が追加されたこと、文書/ビデオ/画像/音声などの非構造化データを解釈し構造化データを出力するための「Amazon Bedrock Data Automation」、画像データにコンテンツフィルターを適用することで望ましくない画像をAIの利用から排除する「Amazon Bedrock Guardrails Multimodal toxicity detection」などが発表されている。

Structured data retrieval
GraphRAG
Amazon Bedrock Data Automation
Amazon Bedrock Guardrails Multimodal toxicity detection

SageMaker HyperPodの拡張も発表され、開発者の手間を軽減して生産性を向上させる

 シヴァスブラマニアン氏はこのほか、AWSが昨年のre:Inventで発表した「Amazon SageMaker HyperPod」の拡張を発表した。

 SageMaker HyperPodは、マネージドサービスであるSageMakerから大規模に分散学習を行う仕組みで、専用の学習リソースなどが割り当てられて、最適な環境で大規模に学習を行える。

 今回発表された拡張は、予算、期待する完了日、希望する最大リソースなどを入れると、HyperPodが自動でリソースの予約や学習ジョブ設定などを行い、効率の良い実験を実現する「Flexible training plans」と、複数の研究チームが利用するような大規模な学習/推論環境で定義したポリシーに基づいてHyperPodが自動的にリソース割り当てを行う「Task governance」の2つだ。いずれも、大規模に学習や推論を行う際の、無駄な手間を省いて高い生産性で学習/推論を行うことを可能にする仕組みだ。

Amazon SageMaker HyperPod Flexible training plans
Amazon SageMaker HyperPod Task governance

 また、「Amazon SageMaker Partner AI Apps」も発表されている。SageMaker AIを利用してモデル開発を行う際に、特定のタスク向けに専門型AIアプリケーションをカタログから探して、数クリックで組み込める。アプリケーションの管理などはAWSが行うため、難しい設定をしなくても手軽に活用し、開発者の生産性を向上させることができるという。

Amazon SageMaker Partner AI Apps

 このほか、AWSのSaaSであるAmazon Q向けには、SageMaker CanvasにAmazon Q Developerの機能が統合された「Amazon Q Developer in SageMaker Canvas」、Amazon Q in QuickSightにシナリオにも基づいたデータ分析の機能を追加する「Amazon Q in QuickSight Scenarios」などが発表されている。

Amazon Q Developer in SageMaker Canvas
Amazon Q in QuickSight Scenarios