インテル、機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」発表。Facebookが開発に協力
インテルは機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」(以下、NNP-I)を、ラスベガスで開催中のCES 2019で発表しました。
NNP-Iの開発にはFacebookが協力していることもあわせて発表されました。
機械学習の処理には、大量のデータを用いて機械に学習を行わせてモデルを作る「学習」(もしくはトレーニング)処理と、学習済みのモデルを用いて「推論」を行う処理の2つがあります。
NNP-Iはこの推論の処理を省電力かつ高速に実行することに特化したプロセッサです。
一般に機械学習処理では、いちどトレーニングによってモデルを作成すると、あとはそのモデルを用いて何度も推論の処理(例えば画像認識など)を行うことになります。
そのため、処理量としては学習処理よりも推論処理の方が圧倒的に多くなりますので、これをXeonのような汎用プロセッサよりも低消費電力かつ高速に実行できるようにすることは、データセンター全体の効率を高め、ひいては運用コストを削減するうえで重要な要素になることは間違いありません。
なぜNNP-Iの開発にFacebookが協力しているのか?
データセンターにおける機械学習処理の増大が明らかな現在、すでにGoogleは機会学習処理専用プロセッサのTPUを投入済みです。そしてAmazon Web Servicesもついに昨年、2018年11月に行われたAWS re:Inventで機械学習の推論に特化した独自開発のプロセッサ「AWS Inferentia」を発表しました。
インテルがNNP-Iを発表したのは、こうした増大する機械学習処理のニーズに対応するためであることは明らかです。ただ、GoogleやAWSがインテルと決定的に違うのは、GoogleやAWSが自社で大規模なデータセンターと処理すべき大規模なデータを持っており、機械学習におけるニーズを自社で明確に把握しているというところです。
そこでインテルは、機械学習に特化したNNP-Iの開発にあたって大規模なデータセンターと処理すべきデータを持っているFacebookを開発パートナーに迎え入れたのでしょう。
インテルは以前からプロセッサの開発にあたってさまざまなパートナーとの協力を積極的に行ってきました。しかしGoogleやAWSといった機械学習の分野で先進的なポジションにあるクラウド事業者自身が、自分たちのニーズに応じたプロセッサを独自に作り始めた現在、インテルがそれらと競合していくためにはFacebookのような新しい開発パートナーとの関係がより重要になってくるはずです。
あわせて読みたい
Ruby 2.6正式版リリース。JITコンバイラを初めて実験的に搭載
≪前の記事
国内サーバ市場2018年第3四半期、シェア1位は富士通、2位NEC、3位HPE。x86サーバは2桁成長、メインフレームは2桁マイナス。IDC Japan