2026年4月9日、IntelとGoogleは複数世代にわたる戦略的提携の拡大を正式に発表した。自社製AIチップ(TPU)を持つGoogleが、あえてIntelをパートナーに選んだ——その背景には「GPUだけでは足りない」という両社共通の認識がある。
両社が発表した中身——何が変わるのか
Google CloudにXeon 6が大規模展開される
今回の発表の目玉のひとつが、IntelのサーバーCPU(コンピューターの中枢処理装置)「Xeon 6(ジーオン・シックス)」を、Google Cloudのサーバーに大規模に導入することだ。
CPUとは、パソコンやサーバーの中で「計算全般を担う司令塔」のような部品だと思えばいい。スマートフォンでいえば、アプリの動作や画面切り替えを滑らかにする心臓部にあたる。
この世代交代によって何が変わるか。Google Cloudの試算では、旧世代の構成と比べて、同じコストで2倍以上の処理ができるようになるという。つまり、これまで100円かけていた処理が、実質50円以下でできるイメージだ。AI処理から日常的な業務システムの運用まで、幅広い用途での活用が想定されている。
Google Cloudを使っている企業にとっては、料金を変えずにより多くの処理をこなせる可能性があることを意味する。エネルギー大手AESはGoogle CloudのAIインフラを活用して安全監査コストを99%削減し、14日かかっていた作業を1時間で終えるようになった。食品大手General Millsは同インフラの活用で1億ドル(約150億円)超のコスト削減を実現した。いずれもGoogle Cloud全体のAI活用による成果であり、Xeon 6への切り替え単体によるものではないが、今回の性能向上がその基盤をさらに強化することになる。
CPUの処理を肩代わりするIPUを共同開発
発表には、もう一つ注目すべき内容が含まれていた。両社が「IPU(インフラストラクチャー・プロセッシング・ユニット)」と呼ばれる補助チップを共同開発するというものだ。
IPUとは何か。CPU(司令塔)は本来、AI処理に集中したいのに、ネットワークの管理やデータの転送確認といった「事務作業」にも時間を取られてしまう。IPUはその雑務を引き受ける専門スタッフのような存在で、CPUがAIの計算により多くのリソースを使えるようにする。
さらに両社は、Googleの要件に合わせて設計するカスタムチップ開発プログラム「Project Glasswing(プロジェクト・グラスウィング)」を正式発表の一環として公表した。詳細な仕様や納期は明らかにされていないが、GoogleがIntelの製造能力を借りて自社インフラを最適化しようとしていることは明確だ。自前のTPU(AI専用チップ)を持ちながらも、さらにIntelとの共同設計に踏み込んだ——その事実が、この提携の深さを示している。
AIチップ市場でNVIDIAが現在86%のシェアを握る一方、Intelはかつての68%から6%へと転落した(Visual Capitalist / Bloomberg調べ、2025年末時点)。この数字が示すのは、かつてサーバー市場を制覇していた企業が、AI時代の到来によって主役の座を失ったという現実だ。この提携はその現実を変えようとする動きでもある——ただし、市場の構造自体が変化しつつある今、単純なシェア争いとは異なる文脈もある。AIの「推論市場」(作ったAIを実際に動かすコスト)が「学習市場」(AIを開発するコスト)を規模で上回るという見方もあり、GPUが圧倒的な力を発揮する「学習」より、CPU+IPUが強みを持つ「推論」の比重が増すなら、今回の提携の意味はより大きくなる。
なぜ今、GPUではなくCPU+IPUなのか
「発表の中身はわかった。でも、なぜ今さらCPUなのか? AIといえばNVIDIAのGPUが常識だったはず」——その疑問は正しい。ただ今、AIの使われ方自体が変わり始めている。
AIが「作る」から「使う」フェーズへ移行している
AIには大きく2つのフェーズがある。「学習」と「推論」だ。
学習とは、AIが賢くなるための訓練期間だ。膨大なデータを何度も読み込ませ、正解を当てられるようパターンを身につけさせる。料理に例えるなら、シェフが試作を繰り返してレシピを開発する作業に近い。膨大な計算を短時間で終わらせる必要があり、ここでNVIDIAのGPU(画像処理を得意とする高性能チップ)が圧倒的な力を発揮してきた。
推論とは、完成したAIを実際に使う段階だ。「この写真に何が写っているか」「このメールへの返信案を出して」——私たちが日々AIに問いかけ、AIが答えを返す、その処理のことだ。先ほどの例えでいえば、完成したレシピをもとに毎日料理を出し続ける作業にあたる。学習ほどの爆発的な計算パワーは必要ないが、24時間365日休まず動き続けるため、電気代とサーバー代が積み重なっていく。
ChatGPTが登場した2022年ごろ、AI業界は「より賢いAIを作る」学習の競争に沸いていた。NVIDIAのGPUはその主役だった。現在もデータセンター市場でNVIDIAは86%のシェアを握る(Visual Capitalist / Bloomberg調べ、2025年末時点)。その強さは今も揺るがない。
だが潮目が変わっている。「AIを作る」より「AIを使う」ことに、より多くのお金が動く時代が来るという見立てもある。ただし、この構造変化の予測については、Gartner・IDC・McKinseyといった主要調査機関による広く検証された見解が現時点では確認されておらず、その規模感や時期については引き続き注視が必要だ。
推論コストの主役はGPUである必要がない
ここに、この提携が持つ意味がある。
GPUは「短時間で膨大な計算を並列処理する」ことを得意とする、いわばレーシングカーのようなチップだ。学習フェーズでその性能は不可欠だった。しかし推論フェーズでは、同じレーシングカーを宅配便のトラック代わりに24時間走らせるようなことが起きる。性能は十分すぎるほどあるが、燃費が悪く、コストがかさむ。
IntelのGaudi 3は、こうした推論向け用途に照準を合わせた設計だ。調査会社The Futurum Groupによると、Gaudi 3はNVIDIA H100と比べて推論の電力効率が約40%高いとされている。なお、この比較はLlama 2などのモデルを用いた推論ワークロードでの試算であり、H100はNVIDIAの当時の主力製品だ。「学習速度」ではなく「推論の電費」で勝負できる余地がある、ということになる。
Gaudi 3と今回の提携の関係について
Gaudi 3の電力効率データは今回の提携の技術的背景として言及しているが、Google CloudがGaudi 3を今回の提携でどの程度・どの用途で採用するのかは今回の発表では明示されていない。今回の発表で確認されているのはXeon 6の大規模展開とIPUの共同開発であり、Gaudi 3はあくまでIntelの推論向け製品の方向性を示す参考事例として位置づけられる。
NVIDIAがデータセンター市場の86%を押さえる一方、Intelのシェアはかつての68%から6%に落ち込んでいる(同調査)。単純なシェア争いでIntelが巻き返すのは容易ではない。しかしフィールドが「学習」から「推論」に移るなら、高コストのGPUをフル稼働させ続ける理由も薄れる。「高性能だが高コスト」の選択肢に代わる、「十分な性能でコスト効率が高い」選択肢を求める企業が増えることは、Intelにとって構造的な追い風になりうる。
GoogleがXeon 6を大規模展開したGoogle Cloudサーバーでは、旧世代の構成と比べてコスト効率が2倍以上改善されたと試算されている。この数値はAI推論に限らず汎用的な処理も含めた総合的な改善値だが、同じ費用でより多くの処理をこなせるという実績は、推論コスト削減の議論に現実的な根拠を与えている。
グーグルがマルチアーキテクチャ戦略を維持する理由
GoogleはAI専用チップ「TPU」を自社で設計し、データセンターに大規模展開している。それでもなお、複数世代にわたってIntelのCPUを採用し続けている。推論時代のコスト合理性が見えてきた今、自前の武器を持ちながらなぜ外部のチップメーカーと組み続けるのか——その問いには、Googleならではの事情がある。
自社チップを持ちながらIntelを手放さない論理
答えは「用途によって最適なチップが違う」という単純な事実にある。
TPUはAIの学習・推論に特化した専用設計で、特定のタスクでは圧倒的な効率を発揮する。一方で、ネットワーク管理や一般的なデータ処理といった「AIの周辺業務」には向いていない。IntelのXeon(サーバー向けCPU)はこうした汎用処理を安定して捌くのが得意だ。TPUとCPUは競合ではなく、むしろ役割の異なる専門家同士に近い。
GoogleがXeon 6を採用したGoogle Cloudのサーバーでは、旧世代の構成と比べてコスト効率が2倍以上改善されたと試算されている。これはAI推論に限らず汎用処理も含めた総合的な改善値だが、同じ費用でより多くの処理をこなせるという実績は、「使い分け」戦略の有効性を示す現実的な根拠になっている。
こうした「マルチアーキテクチャ」の考え方——つまり複数種類のチップを目的別に組み合わせる戦略——は、Googleだけが取っているものではない。AI企業AnthropicもGoogle CloudのTPUとIntelのCPU・IPUを組み合わせた大規模なAIインフラを構築していると伝えられているが、この情報については出典が明示されておらず、独立した検証ができていない。また、AnthropicはGoogleの出資先であることから完全に独立した第三者の事例とは言い切れず、この構成が今回の提携を受けて新たに構築されたものなのか、既存の契約関係に基づくものなのかも明確にされていない点には留意が必要だ。
もう一つ、リスク管理の観点も働いている。NVIDIAがAIデータセンター市場の86%を押さえる現状(Visual Capitalist / Bloomberg調べ、2025年末時点)で、調達先を一社に絞ることは調達リスクを高める。価格交渉力を保ち、供給の安定性を確保するためにも、Googleにとって複数の選択肢を持ち続けることは合理的な判断だ。
インテル側の手札——カスタムチップ事業の急成長
Intel側にとって、この提携の意味はより切実だ。
AIデータセンター市場でのIntelのシェアは、2021年の68%から2025年末時点で6%にまで落ち込んでいる(Visual Capitalist / Bloomberg調べ)。NVIDIAの台頭がその最大の要因だ。
その状況でGoogleという巨大顧客とのカスタムチップ協業「Project Glasswing」は、単なる売上確保にとどまらない意味を持つ。同プログラムはIntelと今回の提携発表の一環として公表されたものだ。具体的な仕様や量産時期、製造に使うプロセス技術(回路の微細化レベル)といった詳細は現時点で非公表だが、「Googleの要件に合わせて専用設計する」というアプローチそのものが、Intelにとって新しいビジネスモデルの柱になりうる。
かつてIntelは「自社設計・自社製造」のチップを汎用品として広く売るモデルを取ってきた。それに対し、顧客の仕様に合わせてカスタム設計・製造するファウンドリ(受託製造)事業は、TSMCが制覇してきた領域だ。Intelはこのファウンドリ市場への参入を経営の柱のひとつに据えており、Googleとの共同設計はその実績づくりという側面も持つ。
推論市場の拡大という構造変化も追い風になりうる。GPUが最も力を発揮する学習フェーズより、CPU+IPUが効率的に機能しうる推論フェーズの比重が増すなら、IntelにはNVIDIAとは異なる土俵で戦う機会が生まれる。もっとも、NVIDIAも推論向け製品の強化を進めており、推論市場でも同社が支配力を維持するシナリオは十分ありうる。この提携がシェア奪還の実弾になるかどうかは、まだ結論が出ていない。
この提携が示す、AIインフラの構造変化
2026年、世界のAIインフラ市場は約9兆円規模(909億ドル)に達する見通しだ(The Business Research Company調べ)。その基盤を誰が担うかという問いは、テック業界最大の覇権争いのひとつになっている。
GoogleとIntel双方の狙いが明確になった今、視点を業界全体に引き上げてみると、この提携が持つ意味はさらに大きく見える。
NVIDIAがAIデータセンター市場の86%を押さえ、Intelはかつての68%から6%に転落した(Visual Capitalist / Bloomberg調べ、2025年末時点)。だが今、その競争の「フィールド」自体が変わりつつある。
AIを「作る」コストより、AIを「使い続ける」コストの方が大きくなる——という構造変化の指摘は複数の観測者から出ているが、その規模感や時期についてはGartner・IDC・McKinseyといった主要調査機関による広く検証された見解が現時点では確認されておらず、引き続き注視が必要だ。GPUが最も力を発揮するのは学習フェーズだが、24時間365日動き続ける推論フェーズでは、コストと電力効率の方が問われる。CPU+IPUという構成が「十分」として機能する余地が、ここに生まれる。
IntelとGoogleの提携は、GPU一強のAIインフラに「もう一つの選択肢」を作る動きとして読める。CUDAからの脱却を目指す業界横断の取り組み(UXL Foundation)や、データセンター間のネットワーク標準化を進める動き(Ultra Ethernet Consortium)も、いずれもNVIDIAエコシステムへの依存を薄めようとする試みだ。今回の提携はその流れと重なる。
もっとも、NVIDIAは推論向け製品の強化を積極的に進めており、推論市場でも同社が支配力を維持するシナリオは十分ありうる。CPU+IPUという構成が、GPUの代替として本当に定着するのか。それとも推論フェーズでもNVIDIAがその座を守り続けるのか——その答えは、まだ出ていない。
