読者です 読者をやめる 読者になる 読者になる

aws memo

AWS関連の備忘録 (※本ブログの内容は個人的見解であり、所属組織及び企業の意見を代弁するものではありません。1年以上古いエントリは疑ってかかってください)

EC2: GPGPUクラスタインスタンス cg1.4xlargeのメモリ

cg1.4xlargeは、cc1.4xlargeにGPUとして NVIDIA Tesla M2050 "Fermi"  が2個刺さっている、という認識だったので、利用可能メモリもcc1.4xlargeと同じ23GiBだという認識だった。

http://docs.amazonwebservices.com/AWSEC2/latest/UserGuide/using_cluster_computing.html#concepts_cluster_compute_specifications

を見ると、

Note: The cluster GPU instances can use up to 22 GiB, with 1 GiB reserved for GPU operation. The 22 GiB doesn't include the GPU on-board memory, which is 3 GiB per GPU for the NVIDIA Tesla M2050 GPU.
注意: クラスタGPUインスタンスは22GiBまで使える。1GiBはGPU操作のため予約済みである。22GiBは GPUオンボードメモリを含んでいない。NVIDIA Tesla M2050 GPUでは、GPU毎に3GiBのオンボードメモリがある。

ということで、実際は22GiBと、cc1.4xlargeより1GiB少ない。実際にやってみると

 free 
             total       used       free     shared    buffers     cached
Mem:      22059784     286708   21773076          0       8412     145948
-/+ buffers/cache:     132348   21927436
Swap:            0          0          0

となっている。ちなみに、NVIDIAのドライバも手動でダウンロード&インストールする必要がある。

Manual Installation of the NVIDIA Driver