生成AI(人工知能)の進化が減速しているのではないかとの見方が、米IT(情報技術)業界で広がっている。対話型の生成AIに用いられる大規模言語モデル(LLM)を開発する米オープンAIや米アンソロピックなどは、巨額の開発費に見合った性能を得られなくなってきたなどと、米メディアが報じている。米マイクロソフトのサティア・ナデラ最高経営責任者(CEO)も11月19日に講演で、「果たして私たちは(AIの)『スケーリング則』の限界に突き当たったのだろうか」と聴衆に問うた。
AIのスケーリング則はオープンAIが2020年に論文で提唱した概念だ。ニューラルネットワークの規模を示す「パラメーター数」、学習に使う「データ量」、学習時の「計算資源」の3つを増やせば、LLMの性能を高められるという考え方である。
このスケーリング則にのっとってオープンAIなどは、パラメーター数を増やすための研究開発に力を注ぎ、学習データを増やすためにインターネットから可能な限り多くのデータを取得し、計算資源を増やすために米エヌビディアのAI半導体を大量に確保した。その結果、オープンAIが23年3月に公開したLLM「GPT-4」は、20年6月公開の「GPT-3」よりも、理解力や生成能力が飛躍的に向上するなどした。
このままの勢いで性能が高まっていけば、半導体の性能が18カ月で2倍になる「ムーアの法則」のように、AIのスケーリング則もLLMの指数関数的な性能向上を表す概念として広く認知されるようになるとの期待があった。
日経ビジネス電子版有料会員になると…
- 専門記者によるオリジナルコンテンツが読み放題
- 著名経営者や有識者による動画、ウェビナーが見放題
- 日経ビジネス最新号13年分のバックナンバーが読み放題