インテル、機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」発表。Facebookが開発に協力

2019年1月10日

インテルは機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」(以下、NNP-I)を、ラスベガスで開催中のCES 2019で発表しました

NNP-Iの開発にはFacebookが協力していることもあわせて発表されました。

Nervana Neural Network Processor for InferenceCES 2019で行われたNervana Neural Network Processor for Inferenceの発表

機械学習の処理には、大量のデータを用いて機械に学習を行わせてモデルを作る「学習」(もしくはトレーニング)処理と、学習済みのモデルを用いて「推論」を行う処理の2つがあります。

NNP-Iはこの推論の処理を省電力かつ高速に実行することに特化したプロセッサです。

一般に機械学習処理では、いちどトレーニングによってモデルを作成すると、あとはそのモデルを用いて何度も推論の処理(例えば画像認識など)を行うことになります。

そのため、処理量としては学習処理よりも推論処理の方が圧倒的に多くなりますので、これをXeonのような汎用プロセッサよりも低消費電力かつ高速に実行できるようにすることは、データセンター全体の効率を高め、ひいては運用コストを削減するうえで重要な要素になることは間違いありません。

なぜNNP-Iの開発にFacebookが協力しているのか?

データセンターにおける機械学習処理の増大が明らかな現在、すでにGoogleは機会学習処理専用プロセッサのTPUを投入済みです。そしてAmazon Web Servicesもついに昨年、2018年11月に行われたAWS re:Inventで機械学習の推論に特化した独自開発のプロセッサ「AWS Inferentia」を発表しました。

fig1

インテルがNNP-Iを発表したのは、こうした増大する機械学習処理のニーズに対応するためであることは明らかです。ただ、GoogleやAWSがインテルと決定的に違うのは、GoogleやAWSが自社で大規模なデータセンターと処理すべき大規模なデータを持っており、機械学習におけるニーズを自社で明確に把握しているというところです。

そこでインテルは、機械学習に特化したNNP-Iの開発にあたって大規模なデータセンターと処理すべきデータを持っているFacebookを開発パートナーに迎え入れたのでしょう。

インテルは以前からプロセッサの開発にあたってさまざまなパートナーとの協力を積極的に行ってきました。しかしGoogleやAWSといった機械学習の分野で先進的なポジションにあるクラウド事業者自身が、自分たちのニーズに応じたプロセッサを独自に作り始めた現在、インテルがそれらと競合していくためにはFacebookのような新しい開発パートナーとの関係がより重要になってくるはずです。

あわせて読みたい

機械学習・AI Intel




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本


<!- script for simple analytics events -->