サクサク読めて、アプリ限定の機能も多数!
記事にいくつか間違いがある。ABCIのGPU数は、V100は1088サーバ x4 (4352)、A100は120サーバ x8(960)。LLMのような大きなモデルは、80GBでも容量が足りず、モデルを分割して並列処理するので、メモリ容量は最重要ではない。
myopia のブックマーク 2023/08/20 16:20
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦記事にいくつか間違いがある。ABCIのGPU数は、V100は1088サーバ x4 (4352)、A100は120サーバ x8(960)。LLMのような大きなモデルは、80GBでも容量が足りず、モデルを分割して並列処理するので、メモリ容量は最重要ではない。2023/08/20 16:20
このブックマークにはスターがありません。 最初のスターをつけてみよう!
wirelesswire.jp2023/08/19
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニ...
378 人がブックマーク・113 件のコメント
\ コメントが サクサク読める アプリです /
記事にいくつか間違いがある。ABCIのGPU数は、V100は1088サーバ x4 (4352)、A100は120サーバ x8(960)。LLMのような大きなモデルは、80GBでも容量が足りず、モデルを分割して並列処理するので、メモリ容量は最重要ではない。
myopia のブックマーク 2023/08/20 16:20
このブックマークにはスターがありません。
最初のスターをつけてみよう!