リコーは10月10日、オンプレミスで導入可能な700億パラメータの日本語LLM(Large Language Models:大規模言語モデル)に対しリーズニング(推論)性能を追加搭載し、GPT-5と同程度の高性能なモデルを開発したことを発表した。

また、同社が開発する「金融業務特化型LLM」では、有価証券報告書などの公開データを用いて金融業特有の専門用語や知識を追加学習させ、さらに多段推論能力(CoT:Chain-of-Thoughts)を付加することで、融資稟議業務などをはじめとした専門的な業務遂行能力を強化した。このモデルに対するベンチマーク評価の結果、米OpenAIが開発したGPT-5をはじめとするモデルと同程度の性能を確認を示したという。

同社は今後、製造業や医療といった他の業種や業務にも適用可能な特化モデルの開発を進め、現場のDX(デジタルトランスフォーメーション)支援を進めるとしている。

  • モデル構築のイメージ

    モデル構築のイメージ

評価結果

今回開発したモデルを、複雑な指示やタスクを含む代表的な日本語ベンチマーク「ELYZA-tasks-100」の他、日本語のマルチターンの対話能力を評価する「Japanese MT-Bench」、日本語金融ベンチマーク「japanese-lm-fin-harness」、および金融業向けに独自開発したベンチマークにより、性能を評価した。

その結果、リコーが開発した「金融業務特化型LLM」は、日本語ベンチマークにおいて米OpenAI社のGPT-5と同程度の高いスコアを示したという。また、金融ベンチマークではパラメータ数が同規模以上のオープンソースモデルを上回るスコアを示している。

  • 評価結果(リコーは2行目)

    評価結果(リコーは2行目)