0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

比Colab更方便的GPU平台-GPUlab

工程师邓生 来源:易心Microbit编程 作者:易心Microbit编程 2022-09-08 16:24 次阅读

GPUlab是一个提供付费GPU的平台,其接口源自JupyterLab(一种升级版的Jupyternotebook),因此可透过网页接口提供完整的Python IDE接口,除了基本的Notebook,也有terminal、console可用,因此使用起来比起Colab更为方便。

产品是由一家位于美国加州的Deasil Works公司所提供,主要业务提供AI、Data science等方面的技术咨询。

计费方式

45890192-2f4d-11ed-ba43-dac502259ad0.png

目前提供三种plan,但主要在于购买周期的差异,硬件及执行环境完全相同。三种计费周期为日、周、月,信用卡付款,期限到自动扣款续约。

提供的GPU执行环境

比较值得关心的是GPU执行环境及配置:

1.GPU硬件:Tesla K80 x1,11MB

2.CUDA 10.02

3.Ubuntu 18.04

4.Tensorflow 2.3

5.PyTorch 1.8

6.无法sudo (无root权限)

7.可使用terminal或jupyternotebook来执行程序,或管理/安装移除相关套件。

8.Storage空间无论任何方案皆为25GB。

9.环境及档案可持久保持,不像Colab,Kaggle在超过时数后便自动清空。

Tesla K80其实是由两个K40核心所组成一片24GB的K80,在环境中看到的是两片各为12GB的GPU,由于其架构较老旧,速度在TF1.6测试下仅达GTX 1080一半(参考下图)。

45afaaae-2f4d-11ed-ba43-dac502259ad0.png

硬件规格与GTX 1080比较如下:

45d28678-2f4d-11ed-ba43-dac502259ad0.jpg

(https://www.reddit.com/r/deeplearning/comments/5mc7s6/performance_difference_between_nvidia_k80_and_gtx/)

K80已是八-九年前的产品,使用的framework为Kepler(GTX 1080为差了两代的Pascal,3080以后系列为差了五代的Ampere),从Nvidia的规划(https://zh.wikipedia.org/wiki/CUDA)来看,Kepler只支持到CUDA 10.2,不支持最新的CUDA11.0之后版本。但测试结果,安装了CUDA 11.0之后,还是能在GPUlab的K80 GPU执行训练,这部份请参考后续说明。

GPUlab的使用接口

注册账号,选择要购买的方案种类,使用信用卡缴费后,便会自动设定好环境马上便能使用。

45ed1fec-2f4d-11ed-ba43-dac502259ad0.png

GPUlab environment的界面

45fb55ee-2f4d-11ed-ba43-dac502259ad0.png

点选Notebook中的Python3,会于目前目录(可从左侧窗口的档案总管切换)新建一个notebook。

462c4348-2f4d-11ed-ba43-dac502259ad0.png

点选Console中的Bash,会进入一个可下方命令栏输入bash command的窗口。

464c6be6-2f4d-11ed-ba43-dac502259ad0.png

点选Others中的Terminal,出现一个类似putty接口的终端窗口。

466e82d0-2f4d-11ed-ba43-dac502259ad0.png

输入nvidia-smi

468a8c82-2f4d-11ed-ba43-dac502259ad0.png

输入ls -la /usr/local/cuda,发现CUDA版本是10.1

46b6f448-2f4d-11ed-ba43-dac502259ad0.png

升级CUDA为最新版的11.03

如果想要使用较新的Tensorflow 2.5,那么必须要升级CUDA到最新版本11.X才行,不过目前GPUlab仅支持10.3,官方解释要等到下一版(约在2021年七月底或八月左右)才有支持。如果打算自己安装升级,会发现GPUlab并没有开放sudo root权限,想要升级到11.X版似乎有些困难。

但其实,CUDA/CUDNN安装也可以用户模式来安装,不一定需要root权限。

下载CUDA 11.4

URL//developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=18.04&target_type=runfile_local

$ wgethttps://developer.download.nvidia.com/compute/cuda/11.4.0/local_installers/cuda_11.4.0_470.42.01_linux.run

安装CUDA 11.4

$ chmod755 cuda_11.4.0_470.42.01_linux.run

# ./cuda_11.4.0_470.42.01_linux.run

安装时取消Nvidia driver的安装,并修改安装路径到个人家目录下。(例如:/home/jovyan/cuda-11.4)

安装结束后,于相同路径下新增soft link cuda指向cuda-11.4。

加入path到.bash_profile

exportCUDA_HOME=/home/jovyan/cuda

使用pip升级tensorflwo-gpu及pytorch

pipinstall -U tensorflow-gpu torch torchvision torchaudio

将下方三行加到~/.bash_profile

exportLD_LIBRARY_PATH=/home/jovyan/cuda/lib64:/home/jovyan/cuda/extras/CUPTI/lib64/:${LD_LIBRARY_PATH}

exportLIBRARY_PATH=${LIBRARY_PATH}:/home/jovyan/cuda/lib64:/home/jovyan/extras/CUPTI/lib64:/home/jovyan/cuda/targets/x86_64-linux/lib

从NVidia下载解压CUDNN,并将档案复制到 ~/cuda相对应路径下。

测试

开启一个terminal,import tensorflow,确认可使用11.x版的CUDA。

46cb1dec-2f4d-11ed-ba43-dac502259ad0.png

Ps. 此方法仅对于terminal环境有效,在Jupyternotebook环境可在一开始就先执行:

!source ~/.bash_profile

46e6ebee-2f4d-11ed-ba43-dac502259ad0.png

之后,PyTorch便能使用到新版CUDA了,但Tensorflow还不行。

心得

优点:

1.以每月不到三百元的价格,能使用不限时数11GBRAM的GPU,且已预先装好所有可用的模块,感觉相当划算。

2.若您仅需Jupyter Notebook接口进行基本的模型测试及训练,GPUlab所提供的环境已足敷使用。

3.可同时从不同PC登入portal(看到相同执行画面),亦可同时执行数个程序,只要Disk space及GPU usage没有超过用量。

4.从GPUlab环境存取internet的速度快,例如,从Kaggle透过API下载dataset比在自己PC快相当多。

5.提供的Terminal接口与Notebook搭配使用相当方便。

缺点:

1.提供的K80 GPU速度不是很令人满意,以训练一个参数为600,612的Keras UNet模型来说,在最新GTX 3080 GPU每epochs约117 s,K80则需要383 s,两者差距了三倍之多。

2.提供的Disk space仅有25GB,一次无法放置太多数量的dataset。

3.无sudo的root权限,因此,无法自行控制或修改更多的环境配置。

4.预载的CUDA仅支持到10.3,虽可自行升级到CUDA11.X,但会占用到disk quota(约8G)。

5.环境未安装libopencv-dev套件,且也无法透过sudoapt-get install libopencv-dev 自行安装,这使得训练YOLO的Darknetframe在编译时若enableOpenCV,会产生error。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4422

    浏览量

    126710
  • IDE接口
    +关注

    关注

    0

    文章

    14

    浏览量

    13214
  • python
    +关注

    关注

    51

    文章

    4677

    浏览量

    83468

原文标题:比Colab/Kaggle更方便的GPU平台-GPUlab

文章出处:【微信号:易心Microbit编程,微信公众号:易心Microbit编程】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    国产GPU搭配国产处理器平台主机

    处理器gpu
    GITSTAR 集特工控
    发布于 :2024年03月27日 14:11:32

    FPGA在深度学习应用中或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟达 (Nvidia) 和 AMD 等公司的股价也大幅
    发表于 03-21 15:19

    超微gpu服务器评测

    对超微GPU服务器进行评测。 一、超微GPU服务器概述 超微GPU服务器是一种基于超微服务器平台GPU技术相结合的高性能计算设备。它采用了
    的头像 发表于 01-10 10:37 430次阅读

    ARM Mali-T600系列GPU OpenCL开发人员指南

    GPU被设计为同时执行多个线程。 它们并行运行包含相对较少控制代码的计算密集型数据处理任务。 GPU通常包含应用程序处理器多得多的处理元素,因此计算速度应用程序处理器高得多。
    发表于 08-24 07:07

    Arm Mali™ GPU OpenCL开发者指南

    Arm®生产马里家庭™ GPU。Bifrost、Valhall和第五代是马里的三个™ GPU架构。 马里™ GPU并行运行包含相对较少控制代码的数据处理任务。马里™ GPU通常包含
    发表于 08-10 07:47

    基于磁贴的GPU架构优缺点

    本指南介绍了基于磁贴的GPU架构的优缺点。它还将ARM马里基于瓷砖的GPU架构设计与台式PC或控制台中常见的传统的即时模式GPU进行了比较。 马里
    发表于 08-02 12:54

    NVIDIA RTX平台及Turing GPU架构荣获美国先进影像协会技术奖

    NVIDIA RTX平台及Turing GPU架构荣获美国先进影像协会卢米埃尔技术奖
    的头像 发表于 08-01 14:58 389次阅读

    GPU平台生态:英伟达CUDA和AMD ROCm对比分析

    成熟且完善的平台生态是 GPU 厂商的护城河。相较于持续迭代的微架构带来的技术壁垒硬实力,成熟的软件生态形成的强大用户粘性将在长时间内塑造 GPU厂商的软实力。以英伟达 CUDA 为例的软硬件
    的头像 发表于 06-06 14:36 1219次阅读
    <b class='flag-5'>GPU</b><b class='flag-5'>平台</b>生态:英伟达CUDA和AMD ROCm对比分析

    PyTorch教程23.4之使用Google Colab

    电子发烧友网站提供《PyTorch教程23.4之使用Google Colab.pdf》资料免费下载
    发表于 06-06 09:16 0次下载
    PyTorch教程23.4之使用Google <b class='flag-5'>Colab</b>

    PyTorch教程-13.6. 多个 GPU 的简洁实现

    13.6. 多个 GPU 的简洁实现¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook in
    的头像 发表于 06-05 15:44 629次阅读
    PyTorch教程-13.6. 多个 <b class='flag-5'>GPU</b> 的简洁实现

    PyTorch教程-13.7。参数服务器

    13.7。参数服务器¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook in Colab
    的头像 发表于 06-05 15:44 184次阅读
    PyTorch教程-13.7。参数服务器

    PyTorch教程-13.2. 异步计算

    13.2. 异步计算¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook in Colab
    的头像 发表于 06-05 15:44 432次阅读
    PyTorch教程-13.2. 异步计算

    PyTorch教程-13.5。在多个 GPU 上进行训练

    13.5。在多个 GPU 上进行训练¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook in
    的头像 发表于 06-05 15:44 751次阅读
    PyTorch教程-13.5。在多个 <b class='flag-5'>GPU</b> 上进行训练

    如何获取GPU vivante这些文件和目录?

    我必须对 GPU vivante 进行一些测试。我可以在文档中看到它提到了 /unit_tests/GPUgpu.sh 和 gpu_info.sh 以及一些示例 /opt/viv_
    发表于 05-22 06:27

    谷歌Colab硬刚Github Copilot,编程效率要翻天

    再加上Colab的之前提供的全云端运行的Jupyter笔记本环境,开发者可以方便使用Keras,TensorFlow,PyTorch,OpenCV等框架在谷歌提供的GPU资源上进行深度学习应用的开发。
    的头像 发表于 05-19 10:20 680次阅读