EC2: GPGPUクラスタインスタンス cg1.4xlargeのメモリ
cg1.4xlargeは、cc1.4xlargeにGPUとして NVIDIA Tesla M2050 "Fermi" が2個刺さっている、という認識だったので、利用可能メモリもcc1.4xlargeと同じ23GiBだという認識だった。
を見ると、
Note: The cluster GPU instances can use up to 22 GiB, with 1 GiB reserved for GPU operation. The 22 GiB doesn't include the GPU on-board memory, which is 3 GiB per GPU for the NVIDIA Tesla M2050 GPU. 注意: クラスタGPUインスタンスは22GiBまで使える。1GiBはGPU操作のため予約済みである。22GiBは GPUのオンボードメモリを含んでいない。NVIDIA Tesla M2050 GPUでは、GPU毎に3GiBのオンボードメモリがある。
ということで、実際は22GiBと、cc1.4xlargeより1GiB少ない。実際にやってみると
free total used free shared buffers cached Mem: 22059784 286708 21773076 0 8412 145948 -/+ buffers/cache: 132348 21927436 Swap: 0 0 0
となっている。ちなみに、NVIDIAのドライバも手動でダウンロード&インストールする必要がある。