本サイトの記事や画像は、AIが公的資料や複数の報道を基に事実関係を整理・再構成し制作したものです。[続きを表示]特定の報道内容や表現を再利用・要約することを目的としたものではありません。ただし、誤りや不確定な情報が含まれる可能性がありますので、参考の一助としてご覧いただき、実際の判断は公的資料や各出典元の原文をご確認ください。[私たちの取り組み]
3月17日、Hugging Face上で公開された楽天の「Rakuten AI 3.0」をめぐり、独自開発なのか、それともDeepSeek-V3を基にしたものなのかという疑念が浮上した。Impress Watchによると、同モデルは約7000億パラメータの日本語特化LLMで、MoEアーキテクチャ(複数の小さな専門モデルを使い分ける仕組み)を採用するという。争点は性能そのものより、出自の透明性にある。公開された設定や説明が、どこまで自社開発を示しているのかが焦点だ。
楽天の「Rakuten AI 3.0」 公開設定にDeepSeek系表記が浮上
楽天グループは2025年12月18日、GENIACの一環としてRakuten AI 3.0を開発したと発表している。同社は楽天AIを、ショッピングや金融、旅行、エンターテインメントをつなぐエージェント型AIと位置づける。過去にはRakuten AI 2.0がRakuten AI 7Bをベースにしたとも説明しており、今回も開発の積み上げを示す文脈で公開された経緯がある。
ただ、一部報道では、Hugging Face上のconfig.jsonに「DeepseekV3ForCausalLM」との表記があり、hidden_size 7168などの設定がDeepSeek-V3と一致すると指摘された。DeepSeek-V3はHugging Faceで「deepseek-ai/DeepSeek-V3」として公開されているモデルである。設定ファイルの記述と公開モデルの仕様が近いことが、流用疑惑の根拠として注目されている。
国内AI開発の信頼性 基盤モデルの来歴説明が重みを増す
このため、論点は「高性能かどうか」から「どのモデルを土台にしたのか」を明らかにしているかへ移っている。GENIAC支援の国内AI開発強化案件として紹介されたRakuten AI 3.0だけに、基盤モデルの来歴が曖昧であれば、説明責任を問う声が強まる可能性がある。公開時の説明が十分かどうかは、技術力以上に信頼の問題として見られやすい。
もしDeepSeekベースの疑念が事実なら、国内LLMの独自性や、オープンウェイト公開時に出自を示す慣行への信頼に影響しうる。DeepSeek-V3のような高性能なオープンモデルの存在は、日本企業が最先端LLMを公開する際、基盤モデルの由来をより明確に示す圧力を強めるとみられており、現在の説明不足が疑念を広げているのは確かだ。
今後は、楽天が公開物のどこまでを自社実装とし、どこから既存モデルの影響を受けたのかを、公開情報でどこまで説明できるかが焦点になる。国内AI競争が激しくなるほど、性能だけでなく、基盤モデルの来歴を示す姿勢そのものが評価軸になるとみられる。公開設定と説明の整合性が問われる局面は続きそうだ。
