楽天グループは12月18日、日本語に最適化した大規模言語モデル(LLM)「Rakuten AI 2.0」、および小規模言語モデル(SLM)「Rakuten AI 2.0 mini」を発表した。来春を目途にオープンソースとして公開するという。
「Rakuten AI 2.0」は、Mixture of Experts(MoE)アーキテクチャを採用した8x7B(8つの70億パラメータモデル)構成のモデルだ。入力トークンは最適な2つの「エキスパート」(サブモデル)へと振り分けられ、効率的な動作を実現する。楽天によれば、この設計により8倍規模の高密度モデルに匹敵する性能を示しながら、計算資源の使用を約4分の1に抑えられるという。
また、日本語性能はRakuten AI 7Bと比較して、8つのタスクで62.93から72.29へと約15%向上し、自然言語処理タスクにおいて高い精度を実現したとしている。
一方、「Rakuten AI 2.0 mini」は15億パラメータで構成される小規模モデルで、モバイル端末への導入を可能にし、データのローカル処理を実現する。これにより、プライバシー保護や低遅延が求められる特定のアプリケーションに最適なモデルとなる。
楽天グループでChief AI & Data Officerを務めるティン・ツァイ氏は、「今回開発した日本語に最適化したLLMと楽天初となるSLMは、高品質な日本語データや革新的なアルゴリズム、エンジニアリングにより、従来以上に効率性が高いモデルだ。日本の企業や技術者などの専門家がユーザーに役立つAIアプリケーションを開発することを支援するための、継続的な取り組みにおける重要な節目になる」とコメントした。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」