※こちらの記事は2017年02月28日にASCII.jpで公開された記事を再編集したものです。
文● 大谷イビサ/TECH.ASCII.jp 写真●曽根田元

仮想化とクラウドの時代になり、物理的な専用サーバーはなにかとレガシー扱いされがちである。しかし、専用サーバーも進化を続けており、クラウドのように柔軟な使い方も可能になっているのだ。ハードウェアの性能をフル活用できる専用サーバーの価値を、さくらインターネットの加藤直人氏、インテルの土屋建氏と語ってみた。(聞き手:アスキー編集部 大谷イビサ 以下、敬称略)

物理サーバーのからデータセンターの最適化へ

大谷:加藤さんにはずいぶん以前に取材しましたが、今も専用サーバーを手がけているのでしょうか?

加藤:はい。さくらの専用サーバーを10年以上担当しています。今となってはさまざまなサービスがありますが、10年前はホスティングサービスといえば、専用サーバーか、レンタルサーバーだけ。ルート権限をもらって自由にサーバーを利用できるのは、専用サーバーしかありませんでした。その時代からずっと担当しています。

さくらインターネット プラットフォーム事業部 部長 加藤直人氏

大谷:次にインテルの土屋さんです。インテルも10年前はサーバーのCPUがメインでしたが、最近はデータセンターやクラウド全般に事業フィールドを広げていますね。

土屋:インテルも10年程前に、主にレガシーサーバーからIAサーバーへの移行を手がけていたサーバー事業部が、データセンター事業部に名前を変えました。データセンターの将来を考え、ストレージやネットワークの統合も見据えつつ、サーバーの運用管理をいかに効率化するか考え始めた時期です。

当時はデータセンター事業自体も、単なる場所貸しから、ラック貸し、そしてサーバー貸しに移っていった頃です。数万台のサーバーを抱えるクラウド事業者も増えてきました。そこからインテルも一気にデータセンターやクラウド事業者向けの機能を追加したり、仮想化に対応していきました。でも、仮想化してしまうと物理的なモノが一切見えなくなってしまうので、それらをしっかりと管理することに注力するようになったんです。

大谷:サーバーを自社で所有するという時代から、データセンターに移行するという流れが出てきた。それにあわせて、今までサーバー向けのXeonプロセッサーを提供してきたインテルも、データセンター事業者が運用管理しやすい仕組みに注力し始めたわけですね。

土屋:その通りです。

ユーザー自身が障害解決できる「Out Of Bounds」の世界

大谷:専用サーバーをよくするため、さくらインターネットはどんなことを手がけてきたんでしょうか?

加藤:はい。長らく専用サーバーを手がける中で、物理サーバーであるがゆえのいろいろな面倒くささ、負担をお客様に強いているように思っていました。

たとえば、サーバーって故障したり、突然ダウンしたりしますよね。そのときには、お客様から「サーバー落ちてるんだけど」と連絡をいただくような案件もあります。こうした事態に対して、サービス事業者としてどうするかは長年の課題です。そのため、物理サーバーでもクラウドと同じ使い勝手を実現しようとさまざまな施策を手がけてきました。

大谷:具体的な施策を教えてください。

加藤:5年前、弊社の石狩データセンターができたタイミングで手を付けたのは、リモートからネットワークを通じてサーバーの電源操作等が行なえるIPMI(Intelligent Platform Management Interface)の開放ですね。コントロールパネル経由でリモートコンソールを提供するとともに、リモートでの再起動やメディアの利用ができるようにしました。

土屋:加藤さんがおっしゃっているIPMIの開放は、インテルでは「テレメトリ」と呼んでいます。要は「Out of Bounds」という考え方で、OSの外からサーバーを管理する技術で、上位のレイヤーから物理的なものを見せるという機能ですね。CPUとは独立して動くファームウェアを載せた「Node Manager」を提供し、IPMIによるリモート管理やサーバー独自の機能を載せるようにしています。

インテル インダストリー事業本部 クラウド・スペシャリスト 土屋建氏

加藤:リモートコンソール1つにしても、メーカーがばらばらなので、その差を吸収するのはやはり大変でしたね。うちはメーカーから出てくるファームウェアにあわせて自作しているので。でも、これを使えば、ソフトウェア的なカーネルパニックが起こっても、コントロールパネルから遠隔から再起動することが可能になります。

大谷:お客様が障害を手元から自己解決できるというのは、大きいですね。

加藤:専用サーバーの場合、管理者権限をお客様に渡してしまうので、OSの上から事業者は入れません。Out Of Boundsは、お客様だけではなく、われわれのような事業者にとっても重要な考え方です。Out of Boundsで遠隔からサーバーを管理できれば、運用管理も効率化できます。

専用サーバーは「すごくファンの付くサービス」

大谷:クラウドが台頭する中、レガシーのイメージのある専用サーバーってどういうお客様がいるとお考えですか?

加藤:専用サーバーって、すごくファンの付くサービスではあるんですよね。クラウド登場より前は個人のユーザーもいましたし、サイト1つ立ち上げるのに中小企業が借りてくれたこともありました。最近では、ゲーム事業者や大規模なWebサービス事業者なども使ってくれています。

土屋:やはりI/Oのニーズが一番高いんですか?

加藤:I/Oニーズが高いと感じてます。Webのフロント側でリソースが伸縮できる箇所にはクラウドの利用が多いのですが、I/Oのレスポンスが必要な時、特にデータベースの用途では専用サーバーを主流で使ってもらっていますね。

大谷:専用サーバーでI/Oに強いのは、やはりハードウェアの性能を引き出せるからですよね。

加藤:たとえば、今ではクラウドでも、VPSでも当たり前のように使っていますが、SSDを最初に取り入れたのは専用サーバーです。I/Oやデータベースのトランザクション性能の課題をハードウェア1つ取り付けるだけで、いち早く問題を解決できる。これは物理サーバーならではですよね。

土屋:さくらインターネットの専用サーバーって、ハードウェアをワークロードにあわせて、DIY的に組み合わせていけるって方向性じゃないですか。そこが面白いなと思うんですよ。法人向けのサービスでありながら、最新ハードウェアをいち早く使えて、しかもクラウドっぽくコンソールからいろいろ設定や運用できるというのが、すごいです。

「最新ハードウェアをいち早く使えて、しかもクラウドっぽくコンソールから設定できるのがすごいです」(土屋氏)

大谷:私も数年前、さくらの専用サーバーサービスのプレスリリースを記事書きながら、同じこと思いました。なんだか自作PCみたいにカスタマイズできて、しかも月額課金で運用管理までやってくれるって面白いなあと。

加藤:確かにそういう自作PCっぽいアプローチはずっとありますね。ただ、これも良し悪しで、構成の柔軟性とカスタマイズ性って対局にあるので、即時性を実現するのがなかなか大変になります。正直、オーダー入って1時間でフルカスタマイズのハードウェアが組み上がるみたいなベアメタルサービスはまだ無理。だから、今後は少しずつサービスをカスタマイズ性だけではなく、クラウド寄りのサービスを拡充していく方向性です。時間課金なんていうのはその最たるものですね。

CPUがサチる時代の「高火力コンピューティング(GPUサーバー)」の価値

土屋:カスタマイズ性という意味では、モンスターマシンを作れるみたいなオプションはないんでしょうか?

加藤:高火力コンピューティングはそういう方向性ですね。今まではどちらかというと省電力を志向していたし、データセンターの仕様にも関わってくるので、注意していたんですけど、最近はニーズが変わってきました。先ほどはI/O面で専用サーバーを使うユーザーが多いという話をしてきたのですが、最近はCPUがサチる(飽和する)例も増えてきました。相当ハイパフォーマンスなんですが、それでもまだ足りないようです。

大谷:そんな例が出ているのですか? でも、以前取材させていただいたAI将棋プログラムのPonanzaなどは基本、機械学習のために常時CPUをぶん回すという、今までの企業では考えられなかったワークロードなんですよね。今後、HPCの民主化などが進むと、こういう方向性になっていきますよね。

土屋:そうなるとCPUメーカーとしてはうれしいですね(笑)。エンタープライズの用途でも、そういうワークロードが増えていくと、新しいビジネスが生まれますね。

加藤:そういう用途って、確かに今までもあったと思うんですけど、うちのようなサービス事業者にオーダーが来る話ではなかったんです。でも、高火力コンピューティングでは、時間貸しで大量の計算機リソースを使えるような世界を目指したいです。

「高火力コンピューティングでは時間貸しで大量の計算機リソースを使えるようにしたい」(加藤氏)

大谷:製造業のHPC用途とか、金融分野でのHFT(High Frequency Trading)とかは、やはり高火力のフォーカスに入ってきますよね。

先日、さくらインターネットの田中邦裕社長に高火力コンピューティング関連を取材した際も、田中さんは「この先、いくらコンピューターリソースがあっても足りない時代が来る」とお話ししていました。リーマンショックや省エネなどの影響もあって、この5年くらいはサーバーの台数を仮想化などで減らしていくトレンドでした。でも、記者の目から見ると、IoTから集められる膨大なデータ、学習にリソースを必要とするようなAIのブームがあって、計算量が必要という方向に振り子が振れてきた感じがします。

土屋:現状、インテルはコア数を増やす方向にあるのですが、コア数は1個でいいから、動作周波数を極論100GHzにしてほしいみたいな声があるんです。それって市場価値としてどうなのかお聞きしたいです。

加藤:まあ、確かに動作周波数が高い方が事業者としては売りやすいけど、市場としてはどうなんでしょうね。

大谷:サービスの見せ方というのもありますよね。今まではCPUの動作周波数やコア数でサービスを見せていたけど、今後はこれだけの演算を2時間で終えられるとか、1時間で終えられるとか、ユーザーにとっての価値を訴求していることが重要になるのかもしれませんね。もちろん、プログラムによるので、難しいのは理解しているのですが。

ワークロードに最適なリソースを柔軟に配分できるSDIと次世代NAND

大谷:さて、こうしたトレンドの中、ハードウェアのテクノロジーも進化していきますよね。インテルは今後どういったテクノロジーを導入していくのでしょうか?

土屋:まず全体として取り組んでいるのは、いわゆるSDI(Software Defined Infrastructure)です。SDIは簡単に言えば、CPUとメモリ、ネットワーク、ストレージ、セキュリティなどのリソースをプール化して、ワークロードにあわせて再配置していこうというコンセプトです。

従来、それらはすべて別物で、ハードウェア自体はもとより、ソフトウェアや運用も違っていました。でも、インテルの見方だと、5年くらい前にはハードウェアがほぼインテルアーキテクチャーに統合されてきました。同時にSDN/NFVの波がやってきて、ネットワークの機能もソフトウェア化され、さらにストレージもSoftware-Defined化され、サーバーとストレージが同じハードウェアに同居するハイパーコンバージドインフラ(HCI)のような製品も台頭してきました。極論すれば、Xeonプロセッサーで、データセンターのほとんどはまかなえる時代になってきたんです。

「Xeonプロセッサーでデータセンターのほとんどはまかなえるようになってきた」(土屋氏)

大谷:最近のXeonプロセッサーは本当にいろいろな機能が付いてますよね。

土屋:今では仮想マシン間のネットワークのスループットを上げるIntel DPDKも広く使われていますし、ハードウェアと同じ機能・性能を実現するソフトウェアRAID、鍵やデータの暗号化、圧縮などのセキュリティ機能とかも、Xeon プロセッサー上に載せています。従来、アプライアンスが提供してきたような機能をハードウェアに実装し、アプリケーションにインパクトを与えないようにしてきたんです。いま必要とされているワークロードは、すべてさばけるようにするというのがXeon プロセッサーの基本的な戦略です。

大谷:直近でいうと、次世代NAND(不揮発性メモリ)についても興味あります。

土屋:インテルの考えだと、NoSQL DBやHadoopに関してはノード数を増やしてスケールアウトさせていく方向性ですが、OLTP系のDBに関してはやはりスケールアップのアプローチになります。そこで即物的に効いて来るのがNVMe。今までと比較にならないくらいの性能と容量の製品が今後出てきますが、これを使えばI/Oの課題はかなり解消できるはずなんです。

インテルのNVMeは単純にメモリ素子を速くするということだけではなく、OSSを意識したファームウェアを開発しているのが特徴的です。インテルのエンジニアがOSS側の調整とファームウェアのパラメーターチューニングを手がけています。その他、Cephにも注力していて、NVMeベースのブロックストレージも作ろうとしていますね。

加藤:単に高速なメモリを出すだけではなく、ソフトウェアとの相性も考えて、開発しているんですね。

土屋:やはり導入したら、データベースの性能が倍になるくらいのインパクトがないと、NVMeの市場も拡がらないので、そういう努力はしていますね。個人的には、ユーザーの多いMySQLなどでNVMeを使えば、本当に世界が変わるくらいのことを次世代のOptane メモリーでは期待しています。物理サーバーならではのスケールアップ感をドンっと出していきたいですね。

加藤:MySQLってスケールアウトするとレプリケーションの管理が面倒なので、やはりスケールアップしてくれるのが理想ですよね。

データセンターを刷新するRSDとOmni-Path

大谷:数年来推進しているRSD(Rack Scale Design)についても教えてください。

土屋:技術的には、CPUやメモリ、I/Oなどのリソースのプール化をマルチベンダーでやれるようにして、進化したテレメトリを使って、クラウドのオーケストレーターからハードウェアのリソースを配置できるようにするものです。たとえば、PaaSみたいなものを考えていただくと、アプリケーションがスケールするときに、ハードウェアの属性を加味して、リソースも追従できるみたいな世界を描いています。

こちらは、まだ発展途上の技術ですが、NVMeのような高性能なSSDを、遠隔にあるサーバーからインテルのOmni-Path アーキテクチャー(以下、Omni-Path)経由で利用するみたいなこともできる予定です。

加藤:事業者として見ると、RSDはサービスの柔軟性が上がるので魅力的です。今まではサーバー単位で貸さざるを得なかったのですが、これが巨大なCPUの塊、メモリの塊、ストレージの塊として、お客様のワークロードに合わせて貸せるようなるのではという期待がありますね。

大谷:石狩データセンターとかだと、DC in DCの形態でサーバールームの1区画を事業者に貸したりしているじゃないですか。でも、今まではそういった区画単位貸しか、ラックやサーバー単位貸ししかなくて、その中間がなかったと思うんです。RSDが実用化されたら、その中間にあたるような、ハウジングでも、専用サーバーでもないような新しいサービスが生まれるんじゃないかと期待しますね。

加藤:専用サーバーでありながら、リソースをうまく切りわけて提供するようなサービスができますね。

土屋:RSDを使ったベアメタルっぽいサービスって面白そうなので、私も調べてさくらさんと議論を詰めたいです。さくらさんにいろいろ提案して、日本ならではの面白いモノ作りたいですね。

面白いのは、RSDがOCP(Open Compute Project)と歩調を合わせて進めているところです。今後は、OCP上でも、テレメトリやオーケストレーションの部分は互換性を持たせていくという計画です。その中でOmni-Pathの話も入ってくるのではないかと思います。

大谷:引き続き、そのOmni-Pathについてもお聞きしたいのですが。

土屋:Omni-PathはもともとHPCのファブリック向けに作られた独自のプロトコルで、Cray社と Qlogic社から買収で獲得したファブリック技術を基に開発されたものです。インテルとしてはXeonプロセッサーから直接インターフェイスを出すことによって、可能な限りレイテンシとコストを下げるのが狙いです。

加藤:対InfiniBandで考えると、Omni-Pathの魅力はコストですね。かなり競争力のある価格で出てきたので。帯域、レイテンシも問題ないですし、管理性の面でもよさそうと思ってます。

土屋:Omni-Pathも基本はHPC向けに提供しているプロトコルなのですが、データセンター内のイースト−ウェストトラフィックの伝送にも有効なのではという声も上がっていて、一部ではそういう検討しています。

大谷:データセンターファブリックを構成するネットワークの代わりにOmni-Pathを用いる動きもあるわけですね。

加藤:今、土屋さんの話を聞いていて、データセンターで利用するのはありだなと思いました。データセンター全体のパフォーマンスを考えると、今後CPUやメモリ、I/Oを近づけるインターコネクトの重要性は今後増してきますので、Omni-Pathでのファブリック化が進むと面白いと思います。

土屋:PoCのレベルではSDNとNFVを活用して、データセンター内のイースト−ウェストのトラフィックすべてを集めて、仮想ファイアウォールを経由させるようなことはやっているんです。これなら物理的な配線をやり直さなくても、柔軟にサービスを構成できます。

ハイパースケーラーは「ハードウェアを最重要視している」

大谷:クラウドの普及とともに、いろいろな技術がロストテクノロジーになっていて、ハードウェアの技術に興味を持っている人は正直少なくなっている印象もあります。とはいえ、クラウドもデータセンター内の物理サーバーで動いているので、当然ハードウェアも重要です。

土屋:米国ではハイパースケーラーと呼ばれている大手クラウド事業者のニーズを汲みながら技術を開発しています。彼らはサーバーベンダーに匹敵するようなアーキテクトを抱えているし、いろいろなリクエストをわれわれにくれるんです。だから、Xeon プロセッサーの機能を見ていただければ、彼らがなにをしたいかがおぼろげながらに見えてきます。

多くのクラウド事業者や専用サーバーを手がけている事業者は、仮想化ですべてが解決できると思ってない。ハードウェアが重要じゃないなんて、まったく考えていない。むしろ、彼らの方がハードウェアに対して、すごく投資しています。

大谷:去年、弊社でクラウド関係のイベントをやったときにこの話は出たんですが、2016年ってクラウドがハードウェアに回帰した年だったんじゃないかと。大手のクラウド事業者はGPUやFPGAなどをサービスとして投入してきたし、PacketのようなARMサーバーのクラウドも出てきた。これってソフトウェアの限界、ハードウェアの強みをきちんと理解しているからだと思うんですよね。

加藤:HPCも機械学習もそうですけど、仮想化やクラウドの利用ではなく、物理サーバーを利用することがまだまだ主流です。一方で、専用サーバーもクラウドらしい料金体系や柔軟性が必要とされてきているのもそれはそれで事実です。象徴的なのが先日発表した産総研の事例ですね。今までオンプレミスが前提で、しかも建屋まで用意していたような案件が、月額サービスという形で利用してもらうことになります。リソースを足したり、減らしたりも対応するような、ある意味クラウドっぽい専用サーバーサービスの使い方を実現しています。

「ある意味クラウドっぽい専用サーバーサービスの使い方を実現しています」(加藤氏)

土屋:加藤さんの話をお聞きしていると、スケールアウトできるものはクラウド、スケールアウトできないものは専用サーバーになるのかなと。機械学習などのニーズなども今後増えてきそうです。われわれインテルも、今はワークロードを中心に据えた考え方に移行しつつあります。HPCや遺伝子解析、ブロックチェーンなど、CPUとI/Oをとにかく使うようなワークロードに対して、すぐにリソースをデプロイできるのが本来は理想ですよね。

ただ、SDIのようなアーキテクチャが登場したり、NVMeのようなハードウェアの進化が起こったときに、実際のユーザーにどういう形で提供できるのか、インテルは、こういった部分にまだまだ知見を持ち得ていません。日本にはクリエイティブなユーザーも多いし、日本ならではのワークロードもありますよね。だから、さくらインターネットさんのようなユニークな事業者と組んで、時代を先取りするようなサービスを出していくのをお手伝いしていきたいです。

大谷:今後のさくらの専用サーバーが目指す方向性を教えてください。

加藤:物理サーバーを求めているお客様は確実にいるし、その裾野は広げてきたいです。空調や電力などファシリティ面が大変なのは理解しているのですが、大量にCPUを並べて使えて、しかもそれを占有できる専用サーバーならではのサービスに磨きをかけていきます。特にRSDは本当に面白いし、物理サーバーなのに柔軟にシステムが変えられるという世界を実現できると思うので、インテルには期待しています。安心、安全に加え、利便性やコスト、柔軟性といったメリットまで含め、お客様の計算を下支えするプラットフォームをお届けしたいです。

関連サイト