'; html_body += '
'; html_body += '' + title + ''; html_body += '' + summary + ''; html_body += '
'; dom_floating.innerHTML = html_body; /**/ dom_floating.getElementsByClassName('floating_box')[0].style.bottom = f_bottom + '.px'; /**/ var thumb_elem = dom_floating.getElementsByClassName('thumb')[0]; thumb_elem.addEventListener('click', function(){ location.href = link_url; }); var content_elem = dom_floating.getElementsByClassName('content')[0]; content_elem.addEventListener('click', function(){ location.href = link_url; }); var close_btn_elem = dom_floating.getElementsByClassName('close_btn')[0]; close_btn_elem.addEventListener('click', function(){ dom_floating.classList.add('content_hidden'); }); /**/ dom_ad_float.appendChild(dom_floating); } /** * */ window.AI.unsetF = function(){ } }());

楽天、日本語に最適化したLLM「Rakuten AI 2.0」発表--25年春に公開

 楽天グループは12月18日、日本語に最適化した大規模言語モデル(LLM)「Rakuten AI 2.0」、および小規模言語モデル(SLM)「Rakuten AI 2.0 mini」を発表した。来春を目途にオープンソースとして公開するという。

Rakuten AI 2.0と他のモデルの比較 Rakuten AI 2.0と他のモデルの比較
※クリックすると拡大画像が見られます

  「Rakuten AI 2.0」は、Mixture of Experts(MoE)アーキテクチャを採用した8x7B(8つの70億パラメータモデル)構成のモデルだ。入力トークンは最適な2つの「エキスパート」(サブモデル)へと振り分けられ、効率的な動作を実現する。楽天によれば、この設計により8倍規模の高密度モデルに匹敵する性能を示しながら、計算資源の使用を約4分の1に抑えられるという。

 また、日本語性能はRakuten AI 7Bと比較して、8つのタスクで62.93から72.29へと約15%向上し、自然言語処理タスクにおいて高い精度を実現したとしている。

 一方、「Rakuten AI 2.0 mini」は15億パラメータで構成される小規模モデルで、モバイル端末への導入を可能にし、データのローカル処理を実現する。これにより、プライバシー保護や低遅延が求められる特定のアプリケーションに最適なモデルとなる。

 楽天グループでChief AI & Data Officerを務めるティン・ツァイ氏は、「今回開発した日本語に最適化したLLMと楽天初となるSLMは、高品質な日本語データや革新的なアルゴリズム、エンジニアリングにより、従来以上に効率性が高いモデルだ。日本の企業や技術者などの専門家がユーザーに役立つAIアプリケーションを開発することを支援するための、継続的な取り組みにおける重要な節目になる」とコメントした。

コンセントに挿して充電器にもなるAnkerのモバイルバッテリー(価格をAmazonでチェック)

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]