並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 54件

新着順 人気順

tpuの検索結果1 - 40 件 / 54件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

tpuに関するエントリは54件あります。 機械学習人工知能AI などが関連タグです。 人気エントリには 『「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる』などがあります。
  • 「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる

    AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要  |  Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ

      「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
    • くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ

      くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 大阪を起点に日本全国 47 都道府県すべてに店舗を展開する大規模回転寿司チェーンくら寿司株式会社(以下、くら寿司)。浅草や道頓堀、原宿、押上に「食」と「エンターテイメント」の融合を掲げ、「ジャパンカルチャー」の発信拠点とするグローバル旗艦店をオープンするなど、とりわけ “体験” にこだわる同社が、最新のクラウド テクノロジーをどのように活用しているのか。その取り組みと成果を、テクノロジー開発部の皆さんに伺いました。 利用しているサービス: Google Kubernetes Engine、Compute Engine、App Engine、Edge TPU 利用しているソリューション: アプリケーションのモダナイゼーション コンテナや AI など Google Clo

        くら寿司:GKE や Edge TPU などを駆使して来店から会計までを完全自動化し、新しい生活様式のためのサービスを提供 | Google Cloud 公式ブログ
      • Cloud TPUを用いたBERT推論処理基盤の開発

        Cloud TPUを用いたBERT推論処理基盤の開発

          Cloud TPUを用いたBERT推論処理基盤の開発
        • [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021

          Googleは、5月19日未明に開催したオンラインイベント「Google I/O 2021」で、同社が開発した新たなAI専用のシステム「TPU v4」を発表しました。 参考:Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018 「Pod」と呼ばれる1つのシステム単位あたり4096個のチップが搭載され、チップは超高速なネットワークで接続されています。 これによりPodは1エクサフロップを超える高い演算性能を実現。Google CEOのサンダー・ピチャイ氏は「私たちにとって歴史的マイルストーンだ」と次のように基調講演で話しました。 「This is the fastest system, we ever deployed at Google. Historic milestone for us.」(これまでGo

            [速報]Google、1エクサフロップを超える性能を持つ「TPU v4」発表、Google史上最高性能のシステム。Google I/O 2021
          • TPU VS GPU(日本語版)

            はじめに(この記事の英語版はTPU VS GPU(English Edition)にあります。) Machine Learning部門の江間見です。ストックマークでは、自然言語処理技術の研究開発を行っています。 昨今、大規模データでニューラルネットワークを訓練し良い結果を得ようとするならば、深層学習モデルの訓練にかかる時間の膨大さに誰もが悩まされたことがあるかと思います。さらに、深層学習モデルはハードウェアのリソースを多く必要とします。 深層学習モデルの学習では、計算の特性上、CPU(Central Processing Unit)より GPU(Graphics Processing Unit)が高速であるため、GPUが推奨されます。しかし、GPU以外の選択肢として、TPU(Tensor Processing Unit)があります。 そこで、本記事では、自然言語処理のタスクで深層学習モデル

              TPU VS GPU(日本語版)
            • Pytorchで始めるはじめてのTPU

              社内の輪講での発表資料です。 TPUについての簡単な説明とPytorchでTPUを用いてImageNetを学習させたときの肌感をまとめました。 TPUについて初心者なので、間違ったことがあればご指摘いただきたいですm(_ _)m

                Pytorchで始めるはじめてのTPU
              • CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック

                半導体企業のTachyumが、CPU・GPU・TPUの機能を単一のアーキテクチャに統合したチップ「Prodigy」を発表しました。ProdigyのCPUスペックは最大128コア、動作周波数は5.7GHz、16チャネルDDR5メモリ、TDPは950Wとなっており、テクノロジーメディアのWccftechは「非常識なスペック」と評しています。 Tachyum's Prodigy CPU Specs Unveiled: 5nm Universal Processors With Up To 128 Cores, 5.7 GHz Clocks, 16-Channel DDR5-7200 Memory Support & 950W TDP https://wccftech.com/tachyums-prodigy-cpu-specs-unveiled-5nm-universal-processors-

                  CPU・GPU・TPUをワンチップで担う「Tachyum Prodigy」のCPUスペックが明らかに、最大クロック周波数5.7GHz・128コア・TDP 950Wのモンスタースペック
                • Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界

                  dummy GA 新しいURLに転送しています… https://stockmark-tech.hatenablog.com/entry/2021/05/10/000000...

                    Astrategyを支える技術: gRPC, Elasticsearch, Cloud TPU, Fargate... SaaS型AIサービスの内側の世界
                  • Stable Diffusion TPU版の使い方 - 電通総研 テックブログ

                    電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusion(というよりdiffusers)でTPU(JAX / Flax)を使った並列実行バージョンがリリースされたので、早速試してみました。 オリジナルのNotebookはこちら。 僕が作ったNotebookはこちら。 今回は、TPUを使うので、Google Colabに特化しています。自分で1から試す方は、メニューのEdit -> Notebook settingsでTPUを使うように設定してください。 Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す

                      Stable Diffusion TPU版の使い方 - 電通総研 テックブログ
                    • Cloud TPUを用いたBERT推論処理基盤の開発

                      Cloud TPUを用いたBERT推論処理基盤の開発

                        Cloud TPUを用いたBERT推論処理基盤の開発
                      • DeepLearningによる自動撮影カメラ Raspberry Pi+Coral_TPU - Qiita

                        ケース制作は3Dソフト(Fusion360)にて3Dモデル作成後、自宅の3Dプリンタにて制作。(フタも有り) クラス図 プログラム自体のコード量は少なくクラス数も少ないため、アーキテクチャー的な設計はしませんでした。 コアであるObject Detection機能とサムネイルや動画の送信は、将来手段が変わる可能性を考慮し、デザインパターンのStrategyにて設計しています。 またサムネイル、動画送信は、マルチプロセスで処理しています。 主なクラスの役割 Detector: Object Detectionによる画像判定 RaspPiCamera: カメラから画像をひたすら取得 FlameImage: カメラ画像等のデータクラス(DTO) FlameImageProcessor: 画像処理関係(録画したり、メール、サムネイル送信の指示したり) MonitorController: 上記クラ

                          DeepLearningによる自動撮影カメラ Raspberry Pi+Coral_TPU - Qiita
                        • Google、生成AIを支える新TPU「Trillium」の一般提供開始

                          米Googleは12月11日(現地時間)、同社の第6世代TPU(Tensor Processing Unit)、「Trillium」のGoogle Cloudでの一般提供開始を発表した。Trilliumは今年のGoogle I/Oで予告していたTPUだ。 TPUは、Googleが開発した特定用途向け集積回路(ASIC)で、AIモデルのトレーニングや推論に最適化されている。Trilliumは同日発表の「Gemini 2.0」のトレーニングにも使われた。 Trilliumは、先代と比較してトレーニング性能は4倍以上、推論スループットは最大3倍、エネルギー効率は67%、チップ当たりのピークコンピューティング性能は4.7倍、広帯域メモリ(HBM)容量は2倍、チップ間相互接続(ICI)帯域幅は2倍に向上したという。 Trilliumのスケーリング機能はほぼ線形なため、高速インターチップインターコネク

                            Google、生成AIを支える新TPU「Trillium」の一般提供開始
                          • くら寿司がGoogle Edge TPUをどうやって利用しているのか? - Vengineerの妄想

                            @Vengineerの戯言 : Twitter SystemVerilogの世界へようこそ、すべては、SystemC v0.9公開から始まった このツイートで知りました。 くら寿司のCoral Edge TPU事例が出ました!!全国数百店舗で大規模に運用、お皿の画像認識部分でEdge TPUを使っています。僕も微力ながら記事化に協力させていただきました〜https://t.co/BITHt8tYkc pic.twitter.com/dlY94tpOx6 — Hayato Y (@hayatoy82) 2020年10月29日 こちらのツイート 5月23日)では、既に店舗での導入されていたっぽい。 くら寿司の席の注文用端末、いつの間にかiPadからラズパイ4(Raspberry Pi 4)になってるみたい。(USB3.0の色的に)#くら寿司 pic.twitter.com/2eDjCPP7YN

                              くら寿司がGoogle Edge TPUをどうやって利用しているのか? - Vengineerの妄想
                            • An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog

                              There’s a common thread that connects Google services such as Google Search, Street View, Google Photos and Google Translate: they all use Google’s Tensor Processing Unit, or TPU, to accelerate their neural network computations behind the scenes. We announced the TPU last year and recently followed up with a detailed study of its performance and architecture. In short, we found that the TPU delive

                                An in-depth look at Google’s first Tensor Processing Unit (TPU) | Google Cloud Blog
                              • GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に

                                機械学習モデルの配布やデモの実行が可能なAI開発プラットフォーム「Hugging Face」がGoogle Cloudと戦略的パートナーシップを提携しました。この提携により、Hugging FaceのユーザーはGoogle Cloudの強力な計算資源を手軽に利用可能となります。 Hugging Face and Google partner for open AI collaboration https://huggingface.co/blog/gcp-partnership Google Cloud and Hugging Face Announce Strategic Partnership to Accelerate Generative AI and ML Development - Jan 25, 2024 https://www.googlecloudpresscorner.

                                  GoogleとHugging Faceが戦略的提携、Hugging FaceユーザーがNVIDIAのH100やGoogleのTPUなどの強力な計算資源を利用可能に
                                • グーグル、「Cloud TPU VM」を一般提供

                                  今回のリリースには、新しい「TPU Embedding」APIが含まれている。Google Cloudは、これを利用することで機械学習ベースの大規模なランキングやレコメンデーションのワークロードを高速化することができると述べている。 Google Cloudによれば、Cloud TPUによるアクセラレーションの埋め込みは、一般に実行コストが高くなりがちな深層ニューラルネットワークベースのアルゴリズムに依存するランキングやレコメンデーションに関連するコストを下げることができるという。 Google Cloudはブログ記事の中で、「これらは大量のデータを使用する傾向が強く、従来の機械学習インフラでは、トレーニングやデプロイメントが困難かつ高価になる場合がある」と述べている。 「Cloud TPUによるアクセラレーションの埋め込みは、この問題を低いコストで解決することができる。Embedding

                                    グーグル、「Cloud TPU VM」を一般提供
                                  • 性能/消費電力比が優秀なGoogle TPU AIプロセッサーの昨今 (1/4)

                                    CNN(畳み込みニューラルネットワーク)が実用になる、という話で2013年あたりから活発に業界がそちらに向けて動き始めたという話は過去3回でしてきたが、これに向けた専用プロセッサーの先鞭をつけたのはGoogleだった。 性能/消費電力比が競合と比べて10倍優秀 GoogleのAI向けプロセッサー「Google TPU」 2016年5月に開催されたGoogle I/Oの基調講演で、GoogleはGoogle TPUを発表。絶対性能はともかくとして、性能/消費電力比が競合と比べて10倍優れていると説明した。 AI向けプロセッサーのGoogle TPU。サーバーのSATAディスクエリアに収まる程度の小ささである。下のコネクターはPCIe Gen3 x16だが、独自のものとなっている 競合はおそらくNVIDIAのGPUだが、2016年5月はまだPascalが前月にリリースされたばかりなので、世代的

                                      性能/消費電力比が優秀なGoogle TPU AIプロセッサーの昨今 (1/4)
                                    • Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索

                                      この記事は  GMOアドマーケティングAdvent Calendar 2020   23日目の記事です。 みなさんこんにちは、GMOアドマーケティングのM.H.と申します。 突然ですがみなさんは機械学習する時にどのような環境で実行していますか?Google Colaboratoryでは、制限はありますが無料でTPUを使用し、高いパフォーマンスで学習を進めることができます。 今回はこのTPUを使って、モデル内のハイパーパラメータを自動で探索してくれるKeras Tunerを使っていく方法と注意点についてお話しします。 そもそも、TPUとは TPU(Tensor Processing Unit)とは、Googleが開発した機械学習特化型のプロセッサのことで、基本的にGPUよりも高速で学習を進めることができます。計算量が多く、バッチサイズが大きい場合に特にその効果を発揮します。 私たちがこのパワ

                                        Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索
                                      • コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に

                                        Googleのクラウドコンピューティングサービス「Google Cloud」において、機械学習特化型プロセッサ「TPU v5e」を用いた処理が可能になりました。GoogleはTPU v5eについて前世代の「TPU v4」と比較してコストパフォーマンスが2.3倍に向上しているとアピールしています。 Cloud TPU v5e is generally available | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-in-ga/?hl=en TPU v5eはGoogleが独自に開発している機械学習特化プロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルで、発表時には前世代モデルのTPU v4と比較して1ドル当たりのパフォーマ

                                          コスパが2.3倍になったGoogleの機械学習特化プロセッサ「TPU v5e」がGoogle Cloudで利用可能に
                                        • GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍

                                          2023年8月30日、Googleが独自に開発する機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の第5世代モデルとなる「TPU v5e」を発表しました。Googleは大規模言語モデル(LLM)や生成AI(ジェネレーティブAI)といった人気のAIを構築するための「コスト効率とパフォーマンスに優れたプロセッサ」としてTPU v5eをアピールしています。 Announcing Cloud TPU v5e and A3 GPUs in GA | Google Cloud Blog https://cloud.google.com/blog/products/compute/announcing-cloud-tpu-v5e-and-a3-gpus-in-ga/ Inside a Google Cloud TPU Data Center - YouTube Goog

                                            GoogleがAI特化プロセッサTPUの第5世代モデル「TPU v5e」を発表、前モデル比で1ドル当たりのトレーニングパフォーマンス最大2倍・推論パフォーマンス最大2.5倍
                                          • GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張

                                            Googleは2021年、機械学習に特化したプロセッサ「Tensor Processing Unit(TPU)」の第4世代モデルである「TPU v4」を発表しました。新たにGoogleが、2023年4月に公開した公式ブログとプレプリントサーバーのArXivに投稿した論文で、「GoogleのTPU v4を組み合わせたシステムは同サイズのNVIDA『A100』を用いたシステムより高速かつ効率的」と主張しています。 [2304.01433] TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings https://arxiv.org/abs/2304.01433 TPU v4 enables performance, energy and

                                              GoogleのAI用プロセッサ「TPU v4」はNVIDIAの「A100」より高速で効率的だとGoogleの研究者が主張
                                            • Dockerコンテナ上でEdge TPUコンパイラを使う - OPTiM TECH BLOG

                                              2020年1月に Edge TPU が macOS/Windows でも動作するようになりましたが、Edge TPU コンパイラはまだなので、macOS/Windows から手軽に利用できるように Docker でコンテナ化してみました。R&D チームの奥村(@izariuo440)がお送りします。 ベースイメージ選定 Dockerfile を書く Docker イメージのビルド EfficientNet-lite のモデルの準備 Docker でコンパイル おわりに おまけ Edge TPU に関しては、過去記事も参考になるかもしれません。 Edge TPU の July 2019 Updates を追う - OPTiM TECH BLOG 2019インターン紹介: Edge TPU向けPoseNetのリアルタイム姿勢推定 - OPTiM TECH BLOG Edge TPU の性能を引

                                                Dockerコンテナ上でEdge TPUコンパイラを使う - OPTiM TECH BLOG
                                              • “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か

                                                4月は秋の新製品のうわさが増える月。今日も9TO5Googleが「Pixel 6(仮)はオリジナルSoC搭載」という記事を。今回の連載「Googleさん」はこのSoCのお話です。 AppleのiPhoneは4代目の「iPhone 4」の「A4」から“アップルシリコン”と呼ばれるオリジナルSoCを搭載してますが、Googleのオリジナルスマートフォン「Pixel」シリーズのSoCはずっとQualcommのSnapdragonシリーズでした。今秋登場予定のPixel 6(仮)も、てっきりQualcommが昨年12月に発表したハイエンドの「Snapdragon 888」を使うとばかり思っていたのですが。 GoogleがオリジナルSoCを開発しているといううわさは昨年4月ごろからありました。コードネーム「Whitechapel」の下、Samsungと共同で設計しているという話です。 余談ですが、W

                                                  “グーグルシリコン“搭載のPixel 6はiPhoneに勝てそう? Samsung + TPUでハイエンド復帰か
                                                • [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23

                                                  [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23 Googleは、8月29日(日本時間の30日未明)から米サンフランシスコで開催中のイベント「Google Cloud Next '23」で、同社が独自に開発する機械学習に特化したプロセッサの新型「Cloud TPU v5e」を発表しました。

                                                    [速報]Google、機械学習に特化した新プロセッサ「Cloud TPU v5e」発表。数万個のチップで単一ワークロードを処理可能に。Google Cloud Next '23
                                                  • TPUとKaggle

                                                    はじめに この記事は、Kaggle Advent Calendar 2021の13日目の記事です。 昨日はtattakaさんによる鳥コンペ三部作を振り返る、でした。明日はymd_さんによる時系列のCross Validationについて、です。 この記事では、最近Kaggleでもよく用いられるようになってきたTPUについてまとめていこうと思います。 想定読者は TPUをまだ使ったことがない人 Kaggleをやってみたいが、安く使える計算リソースがなく困っている人 です。 TPUとは TPUに関する一般的な話はGoogleのTPU紹介を視聴した方が良いので、少し触れるのみにします。 TPUはGoogleが開発した、行列計算に特化した計算デバイスです。機械学習、その中でも特にDeep Learningは行列計算が数多く登場しますが、従来はこれをCPUやGPUなどの汎用性の高い計算デバイスで行っ

                                                      TPUとKaggle
                                                    • TensorFlow 2.0でTPUを利用する

                                                      こんにちは、GMOアドマーケティングのS.Rです。 TPUとはディープラーニングを高速化するために、Googleが開発したプロセッサーです。TPUの利用により、ディープラーニングのモデルのトレーニング時間を20倍以上改良する事が可能です。 TensorFlow 1.xでTPUを利用するAPIを提供していますが、TensorFlow 2.0ではこのAPIの利用方法が変更されました。 今回はTensorFlow 2.0でTPUを利用する方法を皆さんへご紹介します。 利用する環境 Googleが無料で提供している機械学習目的の研究用ツール【Colab】を利用します。 1 Colabのインスタンスを作る Colabを利用するために必要な最初のStepは、Colabのファイルを作る事です。 Google Driveの管理画面へ遷移し、新しいColabのファイルを作ります。 2 TPUを設定する 作成

                                                        TensorFlow 2.0でTPUを利用する
                                                      • Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など

                                                        Googleは、日本時間5月15日から開催中のイベント「Google I/O 2024」で、TPU v5eに続く第6世代のAI専用TPU(Tensor Processing Unit)である「Trillium」を発表しました。 Trilliumは前世代のTPUとなるTPU v5eと比較して、チップあたりのピーク演算性能が4.7倍。高帯域幅メモリー(HBM:High Bandwidth Memory)の容量と帯域幅が2倍になり、チップ間相互接続(ICI: Interchip Interconnect)の帯域幅もTPU v5eに比べて2倍になりました。 さらに、Trillium TPUは、TPU v5eよりも67%以上エネルギー効率が向上しているとのこと。 Trilliumは、単一の高帯域幅、低レイテンシを備えたポッドで最大256 TPUまで拡張でき、さらに並列処理などを実現するマルチスライス

                                                          Google、第6世代のAI専用TPU「Trillium」発表。前世代より約5倍の性能向上、2倍のメモリ容量と帯域など
                                                        • 【AIメモ】GoogleのTPUがすごい

                                                          Google TPU がすごい。 TPU ってなに? TPU は、Google が開発した機械学習のプロセッサです。 【補足】TPU は Tensor Processing Unit の略です CPU や GPU と同じ流れです。 CPU:Central Processing Unit GPU:Graphics Processing Unit TPU:Tensor Processing Unit TPU を使うと、ディープラーニングを高速化できます。Google 自身も Google Photos などで TPU を使っています。私たちも GCP(Google Cloud Platform)から、TPU を使った機械学習をすることができます。 今回は、機械学習ユーザー必見の TPU について簡単に紹介します。イメージをざっくり紹介するので、実際の動きとは多少異なる点があります。ご了承くださ

                                                            【AIメモ】GoogleのTPUがすごい
                                                          • Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24

                                                            Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24 Google Cloudは、日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、同社が独自に開発しているAI処理に特化したプロセッサ「Cloud TPU」の最新版となる「Cloud TPU v5p」を発表しました。

                                                              Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24
                                                            • GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される

                                                              現地時間2023年12月6日に、Googleが独自開発を進める機械学習特化のプロセッサ「Tensor Processing Unit(TPU)」の新モデル「TPU v5p」が発表されました。GoogleはこのTPU v5pについて「TPU v5pと同時に発表されたマルチモーダルAIのGeminiのトレーニングにも使用されています」と述べています。 Introducing Cloud TPU v5p and AI Hypercomputer | Google Cloud Blog https://cloud.google.com/blog/products/ai-machine-learning/introducing-cloud-tpu-v5p-and-ai-hypercomputer Introducing AI Hypercomputer with Cloud TPU v5p - Yo

                                                                GoogleがAI向けチップ「TPU v5p」を発表、前世代から最大2.8倍の性能向上で「Gemini」のトレーニングにも使用される
                                                              • ASUSのAI処理向け小型ボード「Tinker Edge T」が店頭入荷、Google Edge TPU搭載

                                                                  ASUSのAI処理向け小型ボード「Tinker Edge T」が店頭入荷、Google Edge TPU搭載
                                                                • 機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに

                                                                  Googleが開発する機械学習に特化した専用プロセッサ「Tensor Processing Unit(TPU)」の第4世代モデル「TPU v4」が、2021年5月18日の開発者カンファレンス「Google I/O 2021」で発表されました。新たなプロセッサはすでにGoogleのデータセンターに導入されており、2021年後半にはGoogleクラウドのユーザーが利用可能になるとのことです。 Google unveils 4th generation Tensor Processing Unit - 9to5Google https://9to5google.com/2021/05/18/google-unveils-4th-generation-tensor-processing-unit/ Google details new AI accelerator chips | VentureB

                                                                    機械学習に特化した第4世代プロセッサ「TPU v4」をGoogleが発表、前世代の2倍以上のパフォーマンスに
                                                                  • GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.

                                                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                      GitHub - salesforce/CodeGen: CodeGen is a family of open-source model for program synthesis. Trained on TPU-v4. Competitive with OpenAI Codex.
                                                                    • OpenAIはAIサーバーチップ開発でBroadcomを含むチップ設計者と協議中、元GoogleのTPU設計者を雇用したとの報道も

                                                                      by Focal Foto OpenAIが半導体設計会社、特にBroadcomとの間で新しいチップ開発に関する協議を進めていることが報じられています。この動きはOpenAIがNVIDIAへの依存度を下げ、サプライチェーンを強化する取り組みの一環であり、AIモデルの運用に必要な部品やインフラの供給を増強することを目的としているとのことです。 OpenAI Has Talked to Broadcom About Developing New AI Chip — The Information https://www.theinformation.com/articles/openai-has-talked-to-broadcom-about-developing-new-ai-chip OpenAI and Broadcom in talks about developing new AI

                                                                        OpenAIはAIサーバーチップ開発でBroadcomを含むチップ設計者と協議中、元GoogleのTPU設計者を雇用したとの報道も
                                                                      • 電気を利用せずにスイッチングできるGoogle TPU v4 AIプロセッサーの昨今 (1/3)

                                                                        またしばらく間が空いてしまったがAIプロセッサーの話をしよう。今回はGoogle TPU v4である。Google TPUそのものはこのAIプロセッサシリーズの最初の回で説明した。この時にはGoogle TPU v1~v3までに触れたが、2021年のGoogle I/O 2021で後継となるGoogle TPU v4が発表された。この発表の概略は動画の2分11秒あたりから一瞬だけ紹介されている。 そのGoogle TPU v4は2021年後半から一般にも供用が開始されている。供用、というのはGoogle Cloud TPUサービスという形での提供と言う意味で、チップ自身の販売はなされていない。 そのGoogle TPU v4、発表時にも概略の説明はあったのだが、今年の4月にGoogle自身がそのGoogle TPU v4の詳細を公開した。こちらは論文も出ており、今年6月に開催されたISCA

                                                                          電気を利用せずにスイッチングできるGoogle TPU v4 AIプロセッサーの昨今 (1/3)
                                                                        • Edge TPU の July 2021 Updates を追う - OPTiM TECH BLOG

                                                                          こんにちは、R&D チームの奥村(@izariuo440)です。 前回の Edge TPU の記事から1年4ヶ月ほど空いてしまいました。その間、Windows 向けの PCIe ドライバのβ版が公開されたり Edge TPU ランタイムが OSS になったり、Python/C++ 向けの API が整理されたり MobileDet が利用可能になったりしました。今回の更新では、コンパイラや修正ツールの更新でより多くのモデルがコンパイルできるようになったり、物体検出の EfficientDet-Lite や単一人物姿勢推定の MoveNet などのモデルが追加されたりしています。この記事では July 2021 Updates | Coral をベースに、意訳・追記をしています。 Edge TPU に関しては、過去記事も参考になるかもしれません。 2019インターン紹介: Edge TPU向

                                                                            Edge TPU の July 2021 Updates を追う - OPTiM TECH BLOG
                                                                          • Edge TPU の January 2020 Updates を追う - OPTiM TECH BLOG

                                                                            こんにちは。mermaid でガントチャートを書いている R&D チームの奥村(@izariuo440)です。前回の Edge TPU 更新からはや4ヶ月。今回の更新では、Edge TPU が macOS や Windows で動くようになりました。この記事では Edge TPU January 2020 Updates をベースに、意訳・追記をしています。いくつかは実際に試してみましたが、すべてを試したわけではありませんのであしからず。 Edge TPU に関しては、過去記事も参考になるかもしれません。 Edge TPU の July 2019 Updates を追う - OPTiM TECH BLOG 2019インターン紹介: Edge TPU向けPoseNetのリアルタイム姿勢推定 - OPTiM TECH BLOG Edge TPU の性能を引き出すためには? - OPTiM TE

                                                                              Edge TPU の January 2020 Updates を追う - OPTiM TECH BLOG
                                                                            • AI特化プロセッサ「NPU」「TPU」が“全く別物”である理由

                                                                              関連キーワード CPU | 人工知能 | GPU 機械学習などのAI(人工知能)技術の利用において使われるプロセッサは、CPU(中央処理装置)やGPU(グラフィックス処理装置)だけではない。NPU(ニューラル処理装置)と呼ばれるプロセッサも使われるようになっている。NPUは、AI技術の利用に特化しているという点ではTPU(テンソル処理装置)と共通する特徴があるが、両者は同じではない。NPUは、TPUとは何が違うのか。 TPU、NPUは何が違う? 鍵になる推論の仕組み 併せて読みたいお薦め記事 AI時代のプロセッサ再入門 第1回:GPUやNPUの時代にこそ「CPUの理解」が欠かせないのはなぜ? 第2回:「CPU」と「GPU」の仕事がこれほど違う“根本的な理由” 第3回:「TPU」とはどんなプロセッサなのか? AIインフラの基礎知識 プロセッサ関連のその他の動向 Intel、AMD、NVIDI

                                                                                AI特化プロセッサ「NPU」「TPU」が“全く別物”である理由
                                                                              • 【PyTorch×TPU】Google ColabでPyTorchを使ってみた - ころがる狸

                                                                                こんばんは、Dajiroです。今回はGoogle Colabratory(以下、Colab)におけるPyTorchの使い方についてご紹介します。ColabといえばGoogle社が無料で提供しているノートブック形式のPython計算環境です。通常のCPUに加え、GPUとTPUといった機械学習向けの計算環境も使えるため、手っ取り早く爆速で計算を回すのには最強の環境と言えると思います。使い方は簡単、以下のリンクに飛ぶだけです。恐ろしい・・・ colab.research.google.com さて、Colabの最大の特徴の1つはTPU (Tensor Processing Unit)が使えることです。TPUはGoogle社が開発した機械学習に特化したプロセッサです。機械学習では32, 64ビット等の計算精度が求められないため、TPUは8/16ビットの演算器から構成されています。このように使用用途

                                                                                  【PyTorch×TPU】Google ColabでPyTorchを使ってみた - ころがる狸
                                                                                • Amazon.co.jp: TRONXY XY-2 PRO 3Dプリンター TITAN押出機 TPU/ABS/PLA/PETG等 最大印刷サイズ 255*255*245mm 組立簡単 自動レベリング 家庭用: BISS

                                                                                  【簡単インストール】初心者でも簡単にXY-2PROTITANのインストールが完了します。 また、電子版のマニュアルとソフトウェアが付属しており、SDカードに保存されているため、いつでも簡単に見ることができます。 XY-2 PRO TITANは、255 * 255 * 245mmの印刷サイズで、ビジネス、教育、および個人の家庭での使用に対応できます。 【構造は安定しています】----- XY-2 PRO TITANの長方形のベースは、他のブランドの十字型のベースと比較して、印刷プロセスでより安定しており、ボディのジッターを効果的に低減し、印刷効果を向上させます。初心者も見栄えの良いモデルを印刷できます。 【改良された押出機】----- XY-2 PROモデルをアップグレードし、高品質のTITAN押出機を交換して使用しました。その強力なトルク性能により、XY-2 PROTITANはTPU /

                                                                                    Amazon.co.jp: TRONXY XY-2 PRO 3Dプリンター TITAN押出機 TPU/ABS/PLA/PETG等 最大印刷サイズ 255*255*245mm 組立簡単 自動レベリング 家庭用: BISS

                                                                                  新着記事