2001/06/25
時代に逆行する話2
昨日の続きの前に補足を。分散コンピューティングの場合、仮想メモリに落ちるタイミングを減らすために必要なメモリ量は二台の合計が大型コンピュータ一台よりも多くなります。なぜならたしかに実メモリの空き容量自体は半分で済みますが、システムが消費している実メモリが二台でだぶっているため、確保できる実メモリが減るからです(システムが100Mを使用しており、大型コンピュータが256Mのメモリのとき、空きメモリは156M。小型サーバが半分の128Mのメモリを積んでいても、システムの使用メモリサイズが50M以上になるため空きメモリが156M/2=78Mとならない)。
昨日挙げた以外にも大型コンピュータへの集約はまだまだ問題があります。というか、問題しかないんですが。例えばテープドライブでバックアップすることを考えてみましょうか。もちろんバックアップは毎日行わなければならないのは当然ですが、誰かが使用している間、そのファイルはバックアップできませんから、バックアップにかかる時間は短ければ短いほど良いわけです。大型コンピュータに搭載するハードディスクは二台のサーバを使うのに比べて倍の容量(実際にはシステムで使用する量がだぶるので二倍までいかないが、ほとんど誤差の範囲)が必要になります。その場合当然、一台当たりのバックアップするデータ量も倍になります。それだけの量のデータをバックアップするとなると、テープドライブの最大バックアップサイズも倍のドライブが必要になります(その値段はバックアップサイズが半分のドライブの四倍以上)し、バックアップにかかる時間も倍になります。ロックによってバックアップし損なうファイルが発生する可能性は増大します。もっともネットワーク部には以前、半年間一切バックアップを取っていなかったという恐ろしい前科があります(本当)から今回もバックアップは一切行わないという恐ろしいことをするつもりなのかもしれませんが。
とはいえ、これらはまだ正常ケースですから大きな問題は見えません。最も重要なのは大型コンピュータは異常ケースに対してあまりに脆弱だということです。明日に続きます。


 

Topへ