本サイトの記事や画像はAIが公的資料や報道を整理し制作したものです。[続きを表示]ただし誤りや不確定な情報が含まれることがありますので、参考の一助としてご覧いただき、実際の判断は公的資料や他の報道を直接ご確認ください。[私たちの取り組み]
AIデータセンターのボトルネックが「電力」に移る中、光で計算するチップがGPUの前提を揺さぶり始めた。ビル・ゲイツ氏のゲイツ・フロンティア・ファンドが支援する米Neurophosは今月、開発中の光学処理ユニット(OPU)がNVIDIAの次世代AIスーパーコンピュータ「Vera Rubin NVL72」に対し、同等の消費電力で10倍の性能を狙うと打ち出した。実証前提の主張だが、業界が抱える限界に正面から踏み込む。
「電力の壁」を越える狙い Neurophosが光学OPUで10倍性能を掲げる
Neurophosは22日、1億1000万ドルのシリーズA調達を発表し、量産に向けた開発を加速するとした。同ラウンドはゲイツ・フロンティアが主導し、M12などが参加したと同社が明らかにしている。
中核の主張は、光で行列演算を行うOPU「Tulkas T100」が、低精度(FP4/INT4)計算においてVera Rubin NVL72の約10倍の性能を、概ね同等の電力で実現し得るという点である。T100は光学的な“テンソルコア相当”を1基だけ載せ、1,000×1,000規模の行列を56GHzで動かす設計だとThe Registerが報じた。光の領域で積和演算を行い、電力は主にデジタル・アナログ変換など入出力に使うという。
同社は、既存のシリコンフォトニクスで一般的な光トランジスタがミリメートル級であるのに対し、自社の光トランジスタは約1万分の1まで小型化し、標準的なCMOSプロセスで作れると説明したとTom’s Hardwareが伝えている。
「理論性能」から製品化へ HBM搭載と用途の切り分けが現実解
同社サイトによると、T100 OPUはFP4/INT4のMAC/GEMMで0.47 EXAOPS、効率は235 TOPS/Wを掲げ、電力は平均1kW、ピーク2kWとしている。メモリは768GBのHBMで帯域20TB/s、L2キャッシュは200MBだ。さらにサーバー構成では最大2 EXAOPS、ピーク10kWという仕様も示している。
ただしThe Registerは、現時点の数値を「ゴールポスト」と位置づけ、量産は早くても2028年半ばで、初期出荷は「数千個規模」にとどまる見通しだと報じた。用途も万能計算機ではなく、LLM推論のうち計算集約的な「プリフィル」にまず焦点を当て、帯域制約が強い「デコード」と切り分ける戦略が語られている。GIGAZINEも、この比較が“開発中の主張”である点を踏まえた上で、光学演算が省電力化の方向性として注目されると紹介した。
今回のポイントは、性能競争そのものより「電力当たりの計算量」をどこまで引き上げられるかにある。GPUは演算器だけでなくメモリ、相互接続、ソフトウェア最適化まで含めて初めて価値が出るため、光学コアが優れても“周辺”が足かせになりやすい。それでも、プリフィルのように行列演算へ寄せやすい領域から置き換えが進めば、データセンター設計は汎用GPU一択から、用途別アクセラレータの組み合わせへと再編される。Neurophosの主張は、その分岐点を「電力」という制約から具体化した挑戦状である。
参考・出典
- Neurophos raises $110M Series A
- T100 specs
- Neurophos bets on optical transistors to bend Moore’s Law • The Register
- Bill Gates-backed silicon photonics startup develops optical transistors 10,000x smaller than current tech — optical chip can process 1,000 x 1,000 multiplication matrices | Tom's Hardware
- ビル・ゲイツが支援するスタートアップが既存技術の1万分の1の大きさの光トランジスタを開発 – GIGAZINE
