IBM i のウンチクを語ろう
~ その94:NVIDIA社を取り巻くIT事情
皆さん、こんにちは。私がその名を初めて見聞きしたのは1990年代頃だったように思います。当時のPCのユーザー・インターフェースが文字中心のCUIからイメージ中心のGUIへと移行しつつあった中で、CPUの能力を補うグラフィックス・カードの会社、というのが大方の見方だったのではないでしょうか。画像処理性能を追求しようなどとマニアックな志向を持たない限り、プロセッサのインテル社やWindowsのマイクロソフト社の陰にあって、当時のNVIDIA社はあまり目立った存在ではありませんでした。ビジネスとしての需要を満たすために新たなテクノロジーが生まれ進化する、というのがITの常識だとするならば、たまたまそこにあったテクノロジーがスパコンやAIなどの需要にフィットするという、最近の同社の興盛は例外的なケースなのかもしれません。そしていつの頃からか、グラフィックス処理を担う中核部品は、CPU(Central Processing Unit)になぞらえたのかどうかはわかりませんが、GPU(Graphical Processing Unit)という名で呼ばれるようになります。
GPUの会社が表舞台に登場するようになったのは、世界のスパコンランキングとして知られるTOP500においてではないかと思います。HPL(High Performance LINPACK)というベンチマーク・プログラムの処理量、すなわち浮動小数点数(floating point)の演算(operations)を一秒間あたり(/second)どれだけ実行できるかという回数に、最近だとペタ(Peta:千兆)という接頭辞を付けた「Pflop/s」(ペタフロップス)を指標として、マシンの性能を評価しています。プログラムの中身は線型方程式の解を求めるもの、具体的には行列演算のようです。そしてランキングは毎年6月と11月の年に二回見直されます。行列演算は昔の高校の数学ⅡB課程に含まれていたのですが、計算回数が多くてただひたすらにメンドクサイ、という印象を持っていたことを憶えています。同じことを何度繰り返しても文句一つ言わない、コンピュータ向きの演算だと言えるでしょう。
2020年6月から翌11月にかけての3期連続で、富士通製スパコン「富岳」がランキングのトップに君臨していたことは記憶に新しいですね。コロナ期のニュース番組で、くしゃみをした際の飛沫がどのように飛散するのかという「脅し」の効いた動画を紹介する際には、大抵「世界最速スーパーコンピュータ富岳による」という枕詞がついていました。それ以前だと、2011年6月と11月に富士通の「京コンピュータ」、さらに2002年6月から2005年6月までの5期連続で、NEC製の「地球シミュレータ」もトップの座を獲得したことがあります。ちなみに2023年11月版の最新リストによると、1,194 Pflop/sのFrontierが世界トップ、442 Pflop/sの富岳は第4位に後退しています。そしてそのトップ10のうち9モデルは、プロセッサだけでなくGPUも併せて搭載しています。内訳はNVIDIAのGPU搭載が6モデル、AMDが2、Intelが1と、NVIDIAが圧倒しています。例えば、今でこそ7位に後退していますが、かつて一位だったIBMのスパコンSummitの仕様をざっと眺めてみると、Power9プロセッサが9,216基、NVIDIAのGPU V100が27,648基搭載されていることがわかります。これが例えば20年前の2003年11月のリストになると、GPUはおろか、それらしきものの見る影は全くありません。今やスパコンの計算能力を決めるのはGPUとその搭載数、という時代に様変わりしたようです。
ちなみにトップ10のうちGPUを搭載しない唯一の例外は富士通「富岳」であり、独自設計品であるArmのA64FXプロセッサを搭載しています。ご存知のとおりArm社はプロセッサの設計図を販売しており、それぞれの会社はこれに基づいて独自に最終製品を設計し、製造会社に生産を委託します。Apple社のA17やM3、Qualcomm社のSnapdragonはこの例です。富士通はArmをベースとして、GPU相当の機能を埋め込んだというわけです。
IBM Power(当時の正式名称はIBM Power Systems)の世界にGPU が登場したのは、Power8プロセッサ搭載モデルにおいてでした。狙いはAI用途です。Powerプロセッサは複雑な演算を順番に処理するのに長けている一方で、GPUは大量のデータを対象に、限られた種類の演算を同時並行的に処理するのが得意だという特性があります。通常時はPowerプロセッサが各種の命令を順番に実行し、AIに関わる演算が必要だと判断されたら、大量のデータを転送しながらGPUに処理を委ねる、といった具合に動作します。CPUとGPUとで適材適所の考え方を実装していたわけですが、これは他のサーバーにおいても共通です。IBM Powerの場合は、CPUとGPUとの間でNVLINKという高速の経路を利用することで、遅滞無く大量のデータをGPUに供給できる点が、他サーバーに対する優位点だとされておりました。GPUが高速でも、それに見合ったデータを供給しなければ、効果を発揮できないというわけです。
GPUが「本業」とする画像処理と、スパコンのベンチマークであるHPLやAIに関わる処理の共通性は、大量のデータを対象に行列演算を何度も繰り返し実行する、という点にあるようです。例えば大量の連続的な点の集まりである画像を移動・回転させるためには、もちろん他の解法もありますが、個々の点に対して行列演算を繰り返す必要があります。上述したように、HPLにおいても、またAIのディープ・ラーニングにおいても、大量のデータを対象とする行列演算を実行する必要があることに変わりはありません。最近登場した生成AIのLLM(Large Language Models:大規模言語モデル)の仕組みはよくわかっていないのですが、さらに大きな行列演算量が必要になるそうです。GPUメーカーにとっては、あちらから大量の需要が舞い込んできたようなものかもしれません。ただきっかけはそうであっても、AI需要が根強く大きなものであることは明らなので、最近のGPUはAI向けにかなりチューンアップされているようです。
OpenAIのChatGPTにせよ、GoogleのGemini(旧称: Bard)にせよ、私達のほとんどはAIを試すのにあたってGPUを搭載する個人所有PCではなく、クラウド上のサービスに依存しています。そもそも当コラム執筆時点で最新のNVIDIA社GPU H100の価格は(その後B200がリリースされています)、カカクコムによると500万円台半ばと個人で手が出るレベルにはありません。クラウド上でAIサービスを提供するデータセンターには、膨大な数のGPUがあることは容易に想像がつきます。NVIDIA 社ビジネスの多くはデータセンター向けであり、データセンターにおける同社のシェアは98%に達しているという推定値もあります。当然の事ながら、競合製品も存在するのですが、CUDA(Compute Unified Device Architecture)というGPUアプリケーションの開発キットを無償公開することで、市場をうまく囲い込めている点がNVIDIAの強みだとされています。IBM i の場合とは意味合いが多少違いますが、NVIDIAのGPUアプリケーション資産保護の役割を果たしているわけです。
もう一つNVIDIA躍進の理由と考えられるのは、工場を持たない、いわゆるファブレス・メーカーであることです。GPUの設計に特化し、大規模な投資と高度な技術を必要とする生産は台湾TSMC社に委託する、分業体制による身軽さを維持していることが奏功しています。例えばインテル社は設計から製造までを自力で賄う垂直統合型だったのですが、製造技術革新においてTSMCの後塵を拝していると言われています。その後同社の巻き返しの可能性が時々メディアで語られていますが、具体的にどうなるのかは今後注視してゆく必要がありそうです。また、IBMのPowerプロセッサもかつては垂直統合型で生産されていたのですが、今ではファブレスを前提とする分業体制に転換しています。
NVIDIA社は株式市場においてもその存在感を増していることは、ご存知の方も多いと思います。2023年11月に始まる2024年1月期の業績がアナリストの予想を大きく上回ったために、ニューヨーク株式市場全体が大きく湧き立ち、ついでにその余波が東京市場にも押し寄せたことは記憶に新しいところです。株式時価総額はグーグル親会社のアルファベットを抜き、その後のBloombergニュースによると、さらにサウジアラビアの国有石油会社であるサウジアラムコを抜いて、現在はマイクロソフト、アップルに次ぐ世界第3位に躍進しています。このコラムを書きながら調べていて気付いたのですが、IBM PowerのAIの世界に顔を出した時にNVIDIA株を買っておけば、今頃は30倍以上になっていたようです。私に投資の才があったなら、今頃は全く違った生活を送っていたはずなのに・・・などと妄想を抱きたくなってしまいます。
続伸するAI需要とCUDAによる効果と相まって、NVIDIAの業績は今後も伸び、株価もそれなりに上がるだろうとの予測もあります。確かにそうなのでしょうけれども、投資は自己責任でお願いします。ではまた