GPUlab是一個提供付費GPU的平臺,其接口源自JupyterLab(一種升級版的Jupyternotebook),因此可透過網頁接口提供完整的Python IDE接口,除了基本的Notebook,也有terminal、console可用,因此使用起來比起Colab更為方便。
該產品是由一家位于美國加州的Deasil Works公司所提供,主要業務提供AI、Data science等方面的技術咨詢。
計費方式
目前提供三種plan,但主要在于購買周期的差異,硬件及執行環境完全相同。三種計費周期為日、周、月,信用卡付款,期限到自動扣款續約。
提供的GPU執行環境
比較值得關心的是GPU執行環境及配置:
1.GPU硬件:Tesla K80 x1,11MB
2.CUDA 10.02
3.Ubuntu 18.04
4.Tensorflow 2.3
5.PyTorch 1.8
6.無法sudo (無root權限)
7.可使用terminal或jupyternotebook來執行程序,或管理/安裝移除相關套件。
8.Storage空間無論任何方案皆為25GB。
9.環境及檔案可持久保持,不像Colab,Kaggle在超過時數后便自動清空。
Tesla K80其實是由兩個K40核心所組成一片24GB的K80,在環境中看到的是兩片各為12GB的GPU,由于其架構較老舊,速度在TF1.6測試下僅達GTX 1080一半(參考下圖)。
硬件規格與GTX 1080比較如下:
(https://www.reddit.com/r/deeplearning/comments/5mc7s6/performance_difference_between_nvidia_k80_and_gtx/)
K80已是八-九年前的產品,使用的framework為Kepler(GTX 1080為差了兩代的Pascal,3080以后系列為差了五代的Ampere),從Nvidia的規劃(https://zh.wikipedia.org/wiki/CUDA)來看,Kepler只支持到CUDA 10.2,不支持最新的CUDA11.0之后版本。但測試結果,安裝了CUDA 11.0之后,還是能在GPUlab的K80 GPU執行訓練,這部份請參考后續說明。
GPUlab的使用接口
注冊賬號,選擇要購買的方案種類,使用信用卡繳費后,便會自動設定好環境馬上便能使用。
GPUlab environment的界面
點選Notebook中的Python3,會于目前目錄(可從左側窗口的檔案總管切換)新建一個notebook。
點選Console中的Bash,會進入一個可下方命令欄輸入bash command的窗口。
點選Others中的Terminal,出現一個類似putty接口的終端窗口。
輸入nvidia-smi
輸入ls -la /usr/local/cuda,發現CUDA版本是10.1
升級CUDA為最新版的11.03
如果想要使用較新的Tensorflow 2.5,那么必須要升級CUDA到最新版本11.X才行,不過目前GPUlab僅支持10.3,官方解釋要等到下一版(約在2021年七月底或八月左右)才有支持。如果打算自己安裝升級,會發現GPUlab并沒有開放sudo root權限,想要升級到11.X版似乎有些困難。
但其實,CUDA/CUDNN安裝也可以用戶模式來安裝,不一定需要root權限。
下載CUDA 11.4
URL//developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=18.04&target_type=runfile_local
$ wgethttps://developer.download.nvidia.com/compute/cuda/11.4.0/local_installers/cuda_11.4.0_470.42.01_linux.run
安裝CUDA 11.4
$ chmod755 cuda_11.4.0_470.42.01_linux.run
# ./cuda_11.4.0_470.42.01_linux.run
安裝時取消Nvidia driver的安裝,并修改安裝路徑到個人家目錄下。(例如:/home/jovyan/cuda-11.4)
安裝結束后,于相同路徑下新增soft link cuda指向cuda-11.4。
加入path到.bash_profile
exportCUDA_HOME=/home/jovyan/cuda
使用pip升級tensorflwo-gpu及pytorch
pipinstall -U tensorflow-gpu torch torchvision torchaudio
將下方三行加到~/.bash_profile
exportLD_LIBRARY_PATH=/home/jovyan/cuda/lib64:/home/jovyan/cuda/extras/CUPTI/lib64/:${LD_LIBRARY_PATH}
exportLIBRARY_PATH=${LIBRARY_PATH}:/home/jovyan/cuda/lib64:/home/jovyan/extras/CUPTI/lib64:/home/jovyan/cuda/targets/x86_64-linux/lib
從NVidia下載解壓CUDNN,并將檔案復制到 ~/cuda相對應路徑下。
測試
開啟一個terminal,import tensorflow,確認可使用11.x版的CUDA。
Ps. 此方法僅對于terminal環境有效,在Jupyternotebook環境可在一開始就先執行:
!source ~/.bash_profile
之后,PyTorch便能使用到新版CUDA了,但Tensorflow還不行。
心得
優點:
1.以每月不到三百元的價格,能使用不限時數11GBRAM的GPU,且已預先裝好所有可用的模塊,感覺相當劃算。
2.若您僅需Jupyter Notebook接口進行基本的模型測試及訓練,GPUlab所提供的環境已足敷使用。
3.可同時從不同PC登入portal(看到相同執行畫面),亦可同時執行數個程序,只要Disk space及GPU usage沒有超過用量。
4.從GPUlab環境存取internet的速度快,例如,從Kaggle透過API下載dataset比在自己PC快相當多。
5.提供的Terminal接口與Notebook搭配使用相當方便。
缺點:
1.提供的K80 GPU速度不是很令人滿意,以訓練一個參數為600,612的Keras UNet模型來說,在最新GTX 3080 GPU每epochs約117 s,K80則需要383 s,兩者差距了三倍之多。
2.提供的Disk space僅有25GB,一次無法放置太多數量的dataset。
3.無sudo的root權限,因此,無法自行控制或修改更多的環境配置。
4.預載的CUDA僅支持到10.3,雖可自行升級到CUDA11.X,但會占用到disk quota(約8G)。
5.環境未安裝libopencv-dev套件,且也無法透過sudoapt-get install libopencv-dev 自行安裝,這使得訓練YOLO的Darknetframe在編譯時若enableOpenCV,會產生error。
審核編輯:劉清
-
gpu
+關注
關注
28文章
4766瀏覽量
129189 -
IDE接口
+關注
關注
0文章
14瀏覽量
13347 -
python
+關注
關注
56文章
4806瀏覽量
84931
原文標題:比Colab/Kaggle更方便的GPU平臺-GPUlab
文章出處:【微信號:易心Microbit編程,微信公眾號:易心Microbit編程】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論