IBM i のウンチクを語ろう
~ その22: サーバー比較の観点から見たIBM i -3
皆さんこんにちは。IT製品やサービスの導入にあたって、特定ベンダー以外に購入先の購択肢が無い状態を、「ベンダー・ロックイン」と言って嫌う傾向があります。レガシーシステムの短所の典型とされるものです。オープンシステムであれば「ベンダー・フリー」であり市場の競争原理が働くので、製品コストを抑制できそうです。でもバラバラに買い集めた複数のハードウェアやソフトウェア全体を連携・統合し何年間も継続的に保守するためには、それなりの技術力を背景に手間を掛けなければなりません。自力で賄いきれなければ、コストを投じてSIerにその作業を依頼する事になります。ここでもしユーザーのシステムを理解し運用するノウハウを持つのは特定のSIerのみになるとしたら、結果的に「SIerロックイン」を招く事は見落とされがちです。ダウンサイジングとは、投資の多くが製品購入に投じられるレガシーシステムの「メーカー・ロックイン」から、人件費の比重が大きいオープンシステムの「SIerロックイン」への移行に過ぎず、どのみち「ベンダー・ロックイン」である事に変わりはないのです。そして前回このコラムで述べたように、年月を経ることで低価格化が進む製品に対して、なかなか下がらない人件費の割合が大きくなってゆくため、SIerロックインの方がコスト的により厳しい状況下に置かれる可能性があります。
サーバーを分散したことがコスト高を招いたのであれば、旧状復帰すなわち再統合すれば良いはずですが、分散化という作業は実は極めて不可逆的です。単一サーバーを起源に持てば、分散された直後の各サーバー上のソフトウェアは共通のバージョン、共通のサービスパック・レベルを採用するはずですが、次第にずれが生じます。製品にはメーカーが定めるサポート期限があるために、適宜バージョンをアップグレードする必要があります。そのタイミングは、各メーカーの各製品の都合で定められており、同期する事はありません。もしくは運悪くトラブルに遭遇してしまい、修正プログラムやサービス・パックを適用しなければならなくなったら、やはり環境のずれが生じます。これらを再度統一・統合するのは至難の業です。
一方でハードウェアの性能は年々向上を続け、各サーバーにおいて求められる性能の上限を超えるケースも出てきます。継続的なイノベーション(性能・機能の向上)は市場の要求をいずれ超える、という事象は、テクノロジーの世界においてしばしば見られます。そうなると余った能力を有効活用して他のサーバーを統合し、台数を削減しようという発想がごく自然に生まれてくるわけですが、上記「分散化の不可逆性」が障壁となります。新たな対策として、OS直下に位置する層すなわちハイパーバイザーを用意して、この上に複数のずれのあるままのOS環境を統合できるような、仮想化技術が登場します。
同義扱いされる事が多いのですが、仮想化は必ずしもサーバー統合を意味するとは限りません。ITの世界において定義するとしたら、多少不自由な各種機器類の物理的実体を、人間にとって都合良く見せかけるための技術、といったところでしょうか。小さくて使い辛そうだけれども、見た目上大きくなっているのは仮想メモリですし、一台しかないのにユーザー各自がディスクを占有しているように見えるのは仮想ディスクです。同様に実際のサーバーは一台しかないけれど、見た目は複数台のサーバーが別個に稼働しているように見えるのが仮想マシンです。仮想という言葉は英語のVirtualという形容詞から来ているのですが、実際に英和辞典で調べてみると、おそらく最初に出てくる訳語は「実質的な」です。「実質的なメモリ」「実質的なディスク」「実質的なマシン」と言われた方が理解しやすいですね。でも何となく語感として締りが悪い、というわけで「仮想」という訳語を当てたのは、かつてシステム370が登場した頃の日本IBMなのだそうです。様々な「実質的」技術が登場したので、世間にこの優位性を効果的に訴求しようと知恵を絞ったのでしょう。今では英和辞典に「仮想の」という訳が登場するくらい定着したのですから、試みは成功したと言えそうです。
サーバーの再統合は、ネットワーク・テクノロジーの進化にも支えられています。かつてのレガシーシステム全盛期は、遠隔地を結ぶには膨大なコストを投じて専用回線を設ける事が一般的でした。オープンシステムが登場し分散化が進むと、構内を結ぶテクノロジーとしてTCP/IPプロトコルが広く使用されるようになります。きっかけとなったのは、TCP/IPを標準実装するBSD版Unixの登場でした。さらに遠隔地同士を結ぶために、高速・廉価でこのプロトコルと互換性があるインターネットがあらゆる場所に張り巡らされます。元々は米国防総省が推進するARPANETプロジェクトが進化したもので、冷戦下において旧ソビエト連邦から拠点に軍事攻撃を受けても、迂回路を通じて指揮系統を維持できる強靭なネットワークを構築しようというのが狙いでした。これがサーバーの統合化を後押します。
時期と合わせてIT業界全体の流行を俯瞰すると、黎明期の汎用機やオフコンなどによる一極集中の時代から、分散化が最盛期を迎えたのは1990年代、再度サーバー統合の方向に向かい始めたのは2000年代以降、という大きな転換があったわけです。最初の転換のきっかけとなった技術はオープンシステムとTCP/IPであり、動機は初期導入コストの削減、次は仮想化によるサーバー統合とインターネットであり、動機はTCO、特に人件費の削減にありました。
IBM i はこのうねりの中で、どのような立ち位置にあったのでしょうか。1988年にAS/400として発表された当初は、統合性とそれによってもたらされる使い易さという長所と、業界標準機能ないしオープン性の欠如(当時はオープン性の概念が無かったので無理もありませんが)、の両面において、まさにオフコンそのものでした。筆者個人の理解では、分散化をサポートするための機能実装は必ずしもタイムリーではなかったために、IBM i は「オープンシステム」陣営に加えられる事はありませんでした。その後の集中化の機能は、他のサーバーに比べて遅れをとる事なく実装されたのですが、一度引かれた意識上の境界線を消し去る事はできないまま今日に至っています。
今やオープン性を備えていないシステムは市場において淘汰されるのが現実です。今後の機能強化は期待できないシステム、メーカーがサポートを打ち切る事を明言しているシステム、これらのユーザーはITの将来像を描けないため自主的に、もしくは渋々他のシステムへと移行する事になります。一方かつての「オープンシステム」は、字義通り「オープンなシステム」だったのですが、今ではWindows、Unixに加えてLinuxといった特定のサーバー群を指す用語として使われています。(海外では通用しない、日本独自の用法だそうです。)そしてIBM i はどちらにも該当しない、極めてユニークなシステムです。言うなれば、基幹業務遂行のための理想を追求した独自アーキテクチャーに加えて、オープン性を持った業界標準機能が実装されている、両者の連携による統合性・柔軟性を備えたシステム、といったところでしょうか。
ただITの行く末の全てをテクノロジーが決めてきたわけではありません。世に言うところの2000年問題や競合製品の動向もIBM i ビジネスに影響しています。次回はこのあたりを解きほぐしてみます。ではまた