※この投稿は米国時間 2019 年 1 月 16 日に Google Cloud blog に投稿されたものの抄訳です。

私たち Google Cloud は昨年 11 月、NVIDIA Tesla T4 GPU を Google Cloud Platform(GCP)で提供することを発表し、この最新のデータセンター GPU をサポートする最初で唯一の大手クラウド プロバイダーになりました。そのときはプライベート アルファという形での提供でしたが、私たちはこのたび、T4 GPU インスタンスのパブリック ベータ提供を、ブラジル、インド、オランダ、シンガポール、日本(東京)、米国で開始しました。ブラジル、インド、日本、シンガポールの各 GCP リージョンでの GPU 提供は、今回の T4 が初めてとなります。

T4 GPU は、機械学習(ML)やビジュアライゼーションなど、GPU を活用できるさまざまなワークロードに適しています。個々の T4 は 16 GB の GPU メモリを搭載し、最高精度(FP32、FP16、INT8、INT4)のサポートを提供します。また、NVIDIA Tensor Core と RTX リアルタイム ビジュアライゼーション技術を組み込み、260 TOPS *1 のコンピューティング性能を発揮します。最大で 4 個の GPU、96 個のvCPU、624 GB のホスト メモリと、最大 3 TB のサーバー ローカル SSD をオプションで組み合わせれば、ニーズに最も適したカスタム VM シェイプを作ることができます。

料金は、プリエンプティブル VM インスタンスの場合で GPU 1 個あたり、わずか 0.29 ドル / 時間です。オンデマンド インスタンスでは、GPU 1 個あたり 0.95 ドル / 時間からスタートし、継続利用割引が最大 30 % まで適用されます。確約利用割引も利用すれば、T4 GPU のオンデマンド利用コストを最大限に引き下げることができます。詳細は営業担当にお問い合わせください。

広範な地域で GPU 利用をサポート

私たちは世界各地にある 8 つの GCP リージョンで T4 GPU を提供し、お客様がどこにいても低レイテンシのソリューションを利用できるようにしました。従来の NVIDIA K80、P4、P100、V100 GPU に T4 が加わったことで、ハードウェア アクセラレータ付きのコンピューティング環境を幅広い選択肢の中から選ぶことができます。T4 GPU は現在、us-central1、us-west1、us-east1、asia-northeast1、asia-south1、asia-southeast1、europe-west4、southamerica-east1 の各リージョンで利用できます。


機械学習の推論

T4 は、Google Cloud のプロダクト ポートフォリオの中で、推論ワークロードに最も適した GPU です。正確度と性能のトレードオフを柔軟に調整しながら、FP16、INT8、INT4 の高い性能特性により大規模な推論を実行できることは、他の GPU には見られない特長です。16 GB のメモリにより大規模な ML モデルをサポートし、中小規模のモデルなら複数の推論を同時に実行できます。

Google Compute Engine における T4 の ML 推論性能は最高 4267 イメージ / 秒 *2 で、レイテンシはわずか 1.1 ミリ秒 *3 です。T4 の料金と性能、8 つのリージョンによるグローバルな展開、さらには Google の高速ネットワークのおかげで、Compute Engine の T4 インスタンスは本番ワークロードの実行に非常に適しています。T4 GPU で ML 推論を実行するうえでの参考資料として、Compute Engine の T4 搭載 VM でマルチゾーンの自動スケーリング ML 推論サービスをデプロイする方法を説明したテクニカル チュートリアルも用意されています。

機械学習のトレーニング

クラウドにおける ML トレーニング ワークロードでは、高い性能と Tensor Core テクノロジー、16 GB の GPU メモリで大規模 ML モデルをサポートする V100 が主力 GPU になりました。これに対して T4 は、それらすべてをより低料金でサポートしており、分散トレーニングをスケールアウトしたいときや V100 GPU ほどのパワーを必要としないときは最良の選択肢になります。多くのトレーニング ワークロードがほぼ線形にスケーリングし、T4 を多数使用すればその分だけトレーニング スピードが上がるので、私たちのお客様からも高い評価をいただいています。

Compute Engine での機械学習コストの削減

V100 GPU は、T4 と組み合わせて使うと効果的です。最大 8 個の V100 を搭載できる大規模 VM にスケールアップしたり、低コストの T4 を使用してスケールダウンしたりできるほか、ワークロードの特性に応じて T4 と V100 を使い分けてスケールアウトすることも可能です。Google Cloud は T4 GPU を提供する唯一の大手クラウド プロバイダーであり、その多彩なプロダクト ポートフォリオを活用すれば、コストを削減したり、同等のリソースでより多くの処理を実行したりすることができます。


* 図中の料金は現在の一部リージョンでの Compute Engine オンデマンド料金です。料金はリージョンごとに異なる場合があり、SUD やプリエンプティブル GPU を通じて、より低料金での利用が可能です。

RTX による強力なビジュアライゼーション

Turing アーキテクチャを採用した NVIDIA T4 は、データセンター GPU としては初めて専用のレイトレーシング プロセッサを内蔵しています。これは RT Core と呼ばれ、3D 環境における光の動きの計算を高速化します。Turing は、NVIDIA の OptiX レイトレーシング API を通じてハードウェア アクセラレーションを提供しており、従来の Pascal アーキテクチャよりも高速にリアルタイム レイトレーシングを実行でき、CPU よりも速くフィルム エフェクトの最終フレームをレンダリングできます。

さらに私たちは T4 GPU で動作する仮想ワークステーションも用意しており、次世代のコンピュータ グラフィックス性能と、どこからでもどんなデバイスでも作業できるという柔軟性をクリエーターや技術のプロフェッショナルに提供します。

使ってみましょう

私たちは T4 GPU を、ML やコンピューティング、ビジュアライゼーションで簡単に利用できるようにしました。T4 をはじめとする GPU プロダクトの詳細はこちらのページをご覧ください。GPU と Compute Engine をすぐに使いたいお客様のために、NVIDIA ドライバとさまざまな ML ライブラリがプリインストールされた Deep Learning VM Image も用意しています。まだ Google Cloud をご利用でない方は、今すぐサインアップして 300 ドルの試用枠をご活用ください。

* 1. 260 TOPS は INT4 での性能。INT8 では 130 TOPS、FP16 では 65 TFLOPS、FP32 では 8.1 TFLOPS
* 2. INT8、resnet50、バッチサイズ 128
* 3. INT8、resnet50、バッチサイズ 1

- By Chris Kleban, Product Manager, Cloud GPUs

Jibe の創設者で CEO の Joe Essenfeld 氏は、Cloud Jobs API について次のように述べています。

「新しいソリューションのインテグレーションには数か月から数年かかると考える大企業は少なくないですが、このような長い実装サイクルはイノベーションの大きな障害になります。私たち Jibe は、ある顧客企業の求人サイトを根本から変える機械学習ソリューションとして、わずか 3 週間で Cloud Jobs API をシームレスにデプロイしました。今後はさらに実装時間を短縮できると考えています」

技術系のプロフェッショナルを対象とする転職ウェブ サイトの Dice は、Cloud Jobs API のローンチ テスターとして、80,000 件を超える求人情報をブラウズしやすくしています。

技術系の求人は複雑で、必要なスキルが細かく限定される傾向があります。たとえば、論理式を使わずに検索欄に “front-end engineer” と入力すると、検索結果には UI エンジニアや UI デベロッパー、ウェブ デベロッパー、UX エンジニアなどが含まれてしまうでしょう。

そこで Dice は、Cloud Jobs API を使用することで、求職者の経験や好みを深く理解し、プロの技術者とその人に合った仕事をうまくマッチングできるようにしています。

CareerBuilder は、Cloud Jobs API を使ってわずか 48 時間で作り上げたプロトタイプと、既存の検索アルゴリズムとの比較を行い、プロトタイプのほうが正確な結果を返すと評価しています。

あるテストでは、トップ 100 の用語の 1 つである “part time” を選び、Cloud Jobs API のプロトタイプと既存検索アルゴリズムで結果を比較してみました。すると、Cloud Jobs API は “PT” などの同義語も使用し、既存アルゴリズムよりも多くの結果を返しました。

また、Cloud Jobs API が検索結果を適切に絞り込めることを示すテスト結果もあります。CareerBuilder が有する医療関係の大規模な求人情報リポジトリの 1 つを使って、“CNA psych”(CNA は Certified Nurses Assistant の略。認定補助看護師)という検索語をテストすると、結果は精神科(psychiatric)の CNA に絞られました。これは、求職者にとって精度が大きく向上していることを意味します。

こうした結果が得られたことに満足した CareerBuilder は、Cloud Jobs API を使用した顧客企業向けのサービスを近い将来提供することを計画しています。

なお、Cloud Jobs API の現在のステータスは限定アルファです。詳細は Cloud Jobs API のページをご覧ください。

Google Cloud Platform に GPU 登場

機械学習にとって、高速で信頼性の高いハードウェアは大きなパワーとなります。ハードウェアが進歩すれば、機械学習ができることも進歩します。Google がハードウェアのイノベーションに力を入れているのも、機械学習アプリケーションの高速化が理由の 1 つです。

機械学習を含む複雑なワークロードを Google Cloud Platform(GCP)で実行したい企業向けに、Google Cloudは 2017 年初めからハードウェアの新たな選択肢を提供します。Google Compute EngineGoogle Cloud Machine Learning で GPU(Graphics Processing Unit)を利用できるようにするのです。

GPU は、機械学習アプリケーションの複雑さに対応できる専用プロセッサです。Google Cloud で GPU を導入すれば、お客様は必要な分の料金を支払うだけで、あらゆる場所から GPU マシンにアクセスできるようになり、難しい計算問題の解決に集中できます。

言い換えれば、機械学習アプリケーションにロケット エンジンを積み込み、高速でお手頃な価格の機械学習モデルを作れるということです。詳細はこちらの GPU ページをご覧ください。


Cloud Vision API の全面的な値下げ

Google は、最新のハードウェアおよびチューニングされたアルゴリズムを駆使して、Cloud Machine Learning サービスのパフォーマンスを大幅に向上させてきました。サービスの 1 つである Cloud Vision API も、現在では Google が機械学習向けに開発したカスタム ASIC である TPU により、パフォーマンスと効率を上げています。

こうした改良に合わせる形で、私たちは Cloud Vision API の利用料金を 80 % までの範囲で値下げしました。料金がお手頃になれば、今まで以上に多くの企業が、Cloud Vision API を使った新機能を導入できるようになるでしょう。

また、この 6 か月の間に、私たちは料金の値下げだけでなく、イメージ認識機能も大幅に改良しました。たとえば、ロゴ検出機能は数百万ものロゴを識別できるようになっています。ラベル検出機能についても、イメージ内のランドマークやオブジェクトなどを従来よりも多数検出できるように改良されています。

Cloud Vision API を初めて導入して以来、私たちは製品に対する好意的なフィードバックや、お客様が API を創造的に使ってエクスペリエンスの強化に貢献いただいていることに大変感謝しています。

ベータ リリースの時点から数えると、企業によって分析されたイメージは 10 億件を超えました。Cloud Vision API のコア機能であるイメージ分析は、企業の経営のあり方やエンドユーザーとのやり取りまでも根本的に変えようとしています。この製品を使って素晴らしい成果を上げているお客様は数千社に上ります。

たとえば e ディスカバリ システムを手がける Platinum IDS は、Cloud Vision API を使って数百万もの書類やデジタル ファイルの内容関連性を評価するとともに、新しい e ディスカバリ アプリを提供しています。また、Disney はイノベーティブな宣伝キャンペーンの基盤として Cloud Vision API を使用しています。

Cloud Translation API の Premium エディション

つい最近、Google は Google Neural Machine Translation system(GNMT)のローンチを発表しました。GNMT は、TPU のもとで実行される、最先端の訓練テクニックを駆使した翻訳システムで、機械翻訳の分野では過去 10 年間で最も目覚ましい進歩を遂げた製品です。

Google Cloud は現在、GNMT をサポートする Cloud Translation API(旧称 Google Translate API)の Premium エディションを、すべてのパートナー、デベロッパー、企業に提供しています。

この新エディションの特徴は以下のとおりです。

  • 複数の主要言語のペアにおいて、翻訳エラーを 55~85 % 削減する最高品質のモデル。
  • 最大 8 言語(英語から中国語、フランス語、ドイツ語、日本語、韓国語、ポルトガル語、スペイン語、トルコ語への翻訳)と 16 言語ペアのサポート。サポート言語は今後さらに増えます。

Premium エディションは、正確で長い形式の翻訳サービスを必要とするお客様に合わせて作られています。たとえば、ライブ ストリームや大量の電子メール、専門論文、文書などの翻訳です。これに対して Standard エディションは、100 言語を超える翻訳と、短期的なリアルタイムの会話テキスト翻訳に適した価格性能を提供します。
また、Cloud Translation API を手軽で使いやすいものにするため、私たちは利用頻度の高い Standard エディションの料金を引き下げました。詳細は料金案内のページをご覧ください。

Cloud Natural Language API が GA リリースに

私たちは、テキスト分析機械学習サービスである Cloud Natural Language API をすべての企業に GA リリース(一般公開)しました。2 億人以上のユーザーを対象に数十億件ものメモやファイルの格納サービスを提供している Evernote をはじめ、多くのベータ テスターにシェアしていただいた貴重なフィードバックに基づく新機能が含まれています。
  • 強化されたエンティティの認識 : テキストに含まれている人名、社名、地名など、名称を識別する精度を向上させています。
  • 拡張言語サポートによる細かい粒度の感情分析 : 文書やレコード内だけでなく、文のレベルで感情分析を提供します。
  • 形態論的要素を加味した高度な構文解析 : 数、性、人称、時制など形態論の要素を加味して、高度な NLP タスクで必要な同一指示の解決を向上させています。
技術的な詳細や Cloud Natural Language API の動作を知りたい方は、こちらをクリックしてください。

私たちのチームは、新しい機械学習シナリオの実現に向け、忙しい日々を過ごしています。私たちは今年だけで、まったく新しい API と 1 つのフルマネージド プラットフォームを導入し、それらは今ではすべての企業で利用できます。そして、ユーザーの皆さんが Google の既存の機械学習エコシステムを掘り下げている間も、私たちは新しいシナリオを生み出す研究とモデルへの投資を続けていきます。

2017 年以降も、企業向けの新しい機械学習ソリューションを迅速に提供すべく、努力していく所存です。次のアクションにどうぞご期待ください。


* この投稿は米国時間 11 月 15 日、Google Cloud Machine Learning の Group Lead である Rob Craft によって投稿されたもの(投稿はこちら)の抄訳です。

- Posted by Rob Craft, Group Lead for Google Cloud Machine Learning


Google Cloud GPU は、インフラストラクチャを柔軟に組み合わせながら利用できます。コアを共有しない各マシンに最大 8 GPU のダイを接続可能です。たとえば、n1-highmem-8 インスタンスを 3 TB の超高速ローカル SSD とともに使っている場合も、カスタムの 28 vCPU VM を 180 GB RAM とともに使っている場合もです。

Google Cloud の VM と同様に、GPU の料金は分単位で課金され、GPU インスタンスは Google Cloud Console や gcloud コマンドラインから数分で立ち上げることができます。必要なインスタンスが 1 つでも数十でも、料金は使った分だけのお支払いとなります。

早期アクセス プログラムに参加されたお客様は、GPU インスタンスを使用して機械学習の訓練、地震解析、シミュレーション、可視化を行ってきました。その 1 社である新興企業の MapD は、データベースの GPU アクセラレーションによって目覚ましい成果を上げています。
「Google Cloud のこうした新しい GPU インスタンスは、比較可能な CPU ベース システムと比べてパフォーマンスが断然優れており、現在のコンピューティングにおける大きな転換を浮き彫りにしています。米国ニューヨーク市のタクシーに関する 12 億行のデータセットに対して標準的な分析クエリを行ったところ、Google のシングル n1-highmem-32 インスタンスに 8 個の K80 を搭載したダイを接続したシステムは、それぞれ 32 vCPU の 6 ノード クラスタで動作する Impala よりも、平均処理速度が 85 倍高速でした。さらに、革新的な NVMe 接続 SSD ストレージを採用した構成では、コールド データのロード時間が 5 分の 1 に短縮されました。数十億行以上のデータをミリ秒で検索したいと考えている企業にとって、このパフォーマンスは素晴らしい柔軟性を提供してくれます」
- Todd Mostak 氏、MapD の創業者兼 CEO
エンターテインメント業界に視覚効果ソフトウェアを提供する The Foundry は、クラウド上のワークステーションを試用しています。
「私たち The Foundry にとって、クラウド上での VFX 処理は非常にエキサイティングです。Google Cloud Platform での GPU の提供により、私たちは最先端の可視化技術にオンデマンドでアクセスできるようになり、料金は分単位で支払うことになるでしょう。私たちの業界にとって恩恵は絶大です」
- Simon Pickles 氏、The Foundry の Pipeline-in-the-Cloud 担当主席エンジニア
こちらの調査に回答して、GPU コンピューティングの要件や、GPU 関連の発表について通知を希望されるかどうかをお知らせください。GPU に関する詳しい情報については、私たちのウェブ ページをご覧ください。


* この投稿は米国時間 11 月 15 日、Google Cloud Platform の Product Manager である John Barrus によって投稿されたもの(投稿はこちら)の抄訳です。

- Posted by John Barrus, Product Manager, Google Cloud Platform