本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
複合機大手のリコーは2025年12月8日、日本語に特化した新たな大規模言語モデル「リコー LLM(27B)」を公表した。Googleのオープンモデル「Gemma 3 27B」を基盤としつつ、企業の自社サーバー上で動かせるオンプレミス向けに最適化した点が特徴だ。中堅企業でも扱える規模と消費電力に抑えながら、ビジネス利用に耐える性能を備えた“自前の生成AI基盤”として展開していく。
中堅企業でも構築しやすい“自前LLM”を狙う
リコー LLM(27B)は約270億パラメータの中規模モデルで、一般的なPCサーバーでも動かせるよう設計された。クラウド経由の生成AIと異なり、企業内ネットワークだけで完結するオンプレミス型とすることで、機密文書を外部に出しにくくし、法規制や取引先との契約上クラウド利用に慎重な組織でも導入しやすくする狙いだ。プライベートLLMとして社内の文書やナレッジを安全に扱いたい需要を、比較的コンパクトなモデルで掘り起こそうとしている。
LLM(Large Language Model、大規模言語モデル)は計算負荷と電力消費の大きさが課題だが、今回のモデルは省電力動作を前提としており、高性能GPUを大量に並べる設備を持たない企業でも扱えるとされる。リコーはエフサステクノロジーズの対話型生成AI基盤「Private AI Platform on PRIMERGY」に量子化モデルと開発プラットフォーム「Dify」を組み込んだ構成でも提供し、あらかじめ用意された環境に自社データを載せるだけで、社内チャットボットや文書要約などを短期間で立ち上げられるようにするとしている。
モデルマージ技術とリコーのLLM戦略の中での位置づけ
技術面では、Gemma 3 27Bをそのまま使うのではなく、リコーが磨いてきた複数モデルを組み合わせる「モデルマージ」技術を適用した。約1万5千件の指示応答データで追加学習したInstructモデルなどから、対話に必要な振る舞いだけを抜き出した複数のChat Vectorを作成し、ベースモデルに重ねることで、指示に従う精度や文章生成力を底上げしたという。同規模クラスのオープンウェイトモデルと比べても遜色ない性能を示したとされ、オンプレ前提でも品質を犠牲にしない構成を目指した。
リコーはこれまでに、日本語精度を高めた130億パラメータ級LLMや、日英中3言語に対応する700億パラメータ級LLM、文書と図表を同時に扱うマルチモーダルLLMを発表しており、経済産業省とNEDOのプロジェクト「GENIAC」にも採択されてきた。こうした実績を踏まえつつ、「お客様の求める性能を最小限のサイズで実現する」という方針に沿って位置づけられたのが27Bモデルだ。利用企業にとっては、自社データでどこまでチューニングするか、そしてクラウドとオンプレミスをどう住み分けるかという設計次第で、この中規模LLMの価値が大きく変わっていきそうである。
