楽天グループ、約7000億パラメータのLLM開発 運用費9割削減へ

楽天が生成AI「Rakuten AI 3.0」発表へ、7000億規模で低コスト運用

※記事を視覚化したイメージであり、実際の事象とは異なります。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]

楽天グループが、生成AIの中核となる大規模言語モデル(LLM)「Rakuten AI 3.0」を開発し、近く発表する予定だ。学習規模の目安となるパラメータ数は約7000億で、楽天市場などのサービスに順次組み込み、日々の検索や案内の形を変える構えである。運用コストを同規模モデルより9割下げたという点が、普及の現実味を左右しそうだ。

「便利さ」が先に立つほど、現場の手当てが要る

通販にLLMが入ると、利用者が最初に体感するのは「探す」より「相談する」への切り替えだ。商品の違いを短く整理したり、レビューの要点をまとめたり、条件に合う候補を会話で絞り込んだりする。Impress Watchは2025年7月、楽天がグループ横断のエージェント型AI「Rakuten AI」を掲げ、ショッピングや旅行、金融まで一つの窓口で動かす構想を示したと伝えた。

一方で、LLMはもっともらしい誤りを混ぜることがあるため、誤案内の責任分界が難しい。出品者側には説明文や在庫、配送条件の更新負担が増え、運営側には表示根拠の提示や監視が求められる。Impress Watchによれば、楽天の法人向け生成AIサービスは入力データを学習に無断利用しない運用を掲げており、ECでも「学習」と「利用」の線引きがどこまで徹底できるかが信頼の土台になる。

7000億パラメータと「9割コスト減」が示す勝負所

パラメータ数は、LLMが蓄える知識や言い回しのパターンの多さを示す一つの目安だ。増やすほど表現の幅は広がるが、学習にも推論にも計算資源が要り、料金や応答速度に跳ね返る。楽天はこれまでも効率を重視してきた。楽天の2025年2月の発表では、複数の小さなサブモデルを使い分けるMoE(Mixture of Experts)型の「Rakuten AI 2.0」を提供すると説明しており、「大きさ」と「回るコスト」を同時に追う流れがある。

さらに楽天は、2026年春をめどに外部公開も計画するとしており、企業内利用に閉じない姿勢が焦点になる。楽天は経済産業省とNEDOの「GENIAC」採択を受け、2025年8月から次世代の日本語LLM研究開発を進めると発表している。公開が進めば国内開発者の選択肢は増えるが、同時に安全性や著作権、評価方法の透明性も問われる。規模の競争よりも、生活者の実感に届く運用設計をどこまで積み上げられるかが、次の差になる。

参考・出典

ニュースはAIで深化する—。日々の出来事を深掘りし、次の時代を考える視点をお届けします。

本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。
ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、
実際の判断は公的資料や他の報道を直接ご確認ください。
[私たちの取り組み]