スペシャル
第3回 OpenPOWERが拓くディープコンピューティング用サーバーの未来

2017年8月8日


<バックナンバー>
第1回 [入門編] いまさら聞けないディープラーニング、機械学習
第2回 ディープラーニングのモデルと専用サーバーを知る

これまで2回にわたってディープラーニングについて、AIにおける位置づけや基本概念に関する話題を中心にご紹介をしてきましたが、最終回となる今回はiCafe編集部より、ディープラーニングを支えるハードウェア/ソフトウェアに焦点を当て、IBM POWERを中心とする話題をご紹介します。

OpenPOWER ファウンデーションとは

POWERに関する技術的な情報がオープン化されていることをご存じでしょうか。

Googleの呼びかけにより2013年8月にGoogle、NVIDIA、IBM、TYAN、Mellanox Technologiesの5社によるOpenPOWERコンソーシアムが発足し、IBMはPOWERに関するハードウェア、ソフトウェアの知的財産をオープンにしました。その4カ月後、このコンソーシアムは多くの参加企業を得てOpenPOWERファウンデーションへと発展し、今日の姿になりました。

OpenPOWERファウンデーションは、「POWERを採用した次世代データセンター技術の開発」、「サーバーの管理性、柔軟性の向上」、「高度なサーバーやネットワーク、ストレージ、CPUアクセラレーション技術の開発」などの目標を掲げて設立され、着実にその成果を上げてきています。

RackspaceやTYANが、POWER8をベースにしたハイパフォーマンスコンピューティング(HPC)向けのサーバーをそれぞれ開発、発表しているのがその一例です。

また、2016年4月のOpenPOWERサミットで、GoogleはPOWER8に同社のアプリケーションおよびインフラソフトの大半を移植済みであることを明らかにしています。また、同時にRackspaceと共同でZaiusというPOWER9を搭載した新たなサーバーを開発中であることを発表しましたが、これらのプロジェクトを可能にするため、現行のPOWER8だけでなく、次期プロセッサーであるPOWER9の仕様にもGoogleの要件が反映されています。

(POWER9については、以前iCafeの「ウワサのPOWER9は何がすごいのか?」という記事で取り上げていますので、そちらもご覧ください。)

このように、仕様に対する参加企業からの要求をPOWERの設計に柔軟に反映させることができるようになったことは、オープン化の大きなメリットですが、こうした対応が可能なのは、POWERの基本アーキテクチャがしっかりしているからこそでもあるのです。

多くのサーバーベンダーやクラウド型データセンターサービスを提供する企業がOpenPOWERファウンデーションに参加しているのは、POWERのアーキテクチャの確かさから来る将来性が高く評価されてのことなのです。

ちなみに、公式には発表されていませんが、IBMのコグニティブ・コンピューティングを担うWatsonもPOWERプロセッサーをベースにしていると言われており、ディープラーニング分野をはじめとして、HPC領域でのPOWERのポテンシャルの高さをうかがわせます。

また、OpenPOWERファウンデーションから生み出される新たなPOWERプロセッサーは、HPC用サーバーだけでなく、GPUを使用しないその他のPOWERベースのサーバー(たとえばIBM iなど)にも性能向上という恩恵をもたらすことになります。その意味で、OpenPOWERファウンデーションの取り組みは、より広範なユーザーにとってメリットがあるといえます。

ディープラーニング用に最適化されたIBM Minsky

2016年9月、IBMからディープラーニング用に最適化された超高速サーバーIBM Power System S822LC for HPCが発表されました。製品発表前はインターネット上でMinskyというコードネームで盛んに取り上げられていましたので、こちらの名前をご存じの方も多いかと思います。Minskyは、IBM、NVIDIA, Wistronの3社の共同開発によるもので、まさにOpenPOWERコンソーシアムの成果の1つでもあります。

このサーバーの最大の技術的な特徴は、NVIDIA最新のTesla P100というGPUとIBM POWER8を高速のNVLinkというインターコネクトで接続している点にありますが、そのためにPOWER8にVLink用のI/Oポートが付け加えられています。そして、NVLinkを実装したことで、従来の標準的なインターコネクトであるPCIeを使用したx86サーバーに比べて、約2.5倍のデータ転送速度を実現しています(図1)。

前回の記事でも触れましたが、今やHPCに求められる処理性能を実現するためには、CPUやGPUの処理性能の向上だけではなく、CPU-GPU間のデータ転送速度の向上も重要な要素となっています。なぜなら、これらのうちどれか1つでも性能が劣るコンポーネントがあれば、そこがボトルネックとなってシステム全体としての性能向上は望めないからです。


図1.PCIe と NVLink (出典:IBM製品発表資料)

ちなみに、Minskyというコード名は、マサチューセッツ工科大学人工知能研究所の創設者の1人である、認知科学者のMarvin Minsky氏の名前に由来するもので、開発者たちのMinsky氏に対する尊敬の念と同時にディープラーニング用サーバーの開発に対する心意気が伝わってきますね。

PowerAIソフトウェア・ディストリビューション

ディープラーニングの開発、実行用のツールの多くはオープンソースとして提供されおり、自由に利用できますが、その反面、導入や環境設定が難しい、あるいは使用するサーバーの特性を活かして最大のパフォーマンスを得ることが難しいなどの課題があります。

こうした課題を解決するために、IBM Power System for HPC用に最適化されたコンパイル済みのバイナリー・ソフトウェアとライブラリーをパッケージ化したPowerAIソフトウェア・ディストリビューションが提供されています(図2)。


図2.IBM PowerAIの概要

注目すべきことは、2017年1月に、これまでPowerAIソフトウェア・ディストリビューションでサポートされていたディープラーニング・フレームワークに加え、新たにTensorFlowとChainerという2つのフレームワークのサポートが発表されたことです。

TensorFlowはGoogleがオープンソースとして公開しており、登場からわずか数か月で利用者が急増した人気No.1のフレームワークです。もともとはディープラーニング用途に限らない、多次元配列を効率的に計算グラフとして実行するための、より一般的な計算を行うためのフレームワークですが、現在はディープラーニング・フレームワークとして人気があります。

また、Chainerはプリファードネットワークスがオープンソースとして公開している日本発のフレームワークで、複雑なニューラルネットワークを直感的かつ容易に設計できるように、”Define by Run”手法による高い柔軟性とパフォーマンスを兼ね備えている点が特長です。現在、IBMとプリファードネットワークスは、共同でChainerをMinsky上で動かし、性能向上を図るプロジェクトを進めているところだそうです。この国産フレームワークが今後Minskyやその後継サーバーと共にディープコンピューティングの世界でどのような発展を遂げるのか、期待が膨らみます。

ディープラーニングにおいては、ハードウェアの処理性能はもちろんのこと、使用するフレームワークがサーバーの能力を十二分に発揮できるよう最適化されているかが重要です。
また、アプリケーション開発の観点からはフレームワークの選択肢が豊富であることも重要なポイントであり、今回注目度の高い2つのフレームワークが新たにPowerAIの選択肢に加えられたことは、多くのユーザーにとって朗報といえるでしょう。

<バックナンバー>
第1回 [入門編] いまさら聞けないディープラーニング、機械学習
第2回 ディープラーニングのモデルと専用サーバーを知る

関連キーワード