|
10 | 10 |
|
11 | 11 | 然后我们进入到控制面板,可以看到下面的图片,点击"EC2"
|
12 | 12 |
|
13 | | - |
| 13 | + |
14 | 14 |
|
15 | 15 |
|
16 | 16 | 然后我们就能够进入到下一个界面
|
17 | 17 |
|
18 | 18 |
|
19 | | - |
| 19 | + |
20 | 20 |
|
21 | 21 |
|
22 | 22 | 这个界面只需要注意三个地方,一个是右上角的地区,需要选择一个离你比较近的地区,整个亚太地区可以选择韩国,日本,新加坡和孟买,需要注意的是不同的地区实例价格是不同的,如果你有vpn,那么推荐选择俄勒冈,因为这个地区最便宜,比亚太地区便宜了4到5倍。然后是左边的一个方框"限制",如果你申请CPU的计算实例,那么不用管,如果你要申请GPU计算实例,就需要点击"限制"进行申请,因为GPU实例会产生费用,亚马逊需要和你确认这个事情,一般需要两到三个工作日。
|
|
27 | 27 | ### 申请实例并启动
|
28 | 28 |
|
29 | 29 |
|
30 | | - |
| 30 | + |
31 | 31 |
|
32 | 32 |
|
33 | 33 | 进入上面的界面之后,需要选择操作系统,这里我们一般都选择linux系统,当然还有很多社区AMI,也就是别人配置好的系统,这里先暂时不用管,我们一般就在上面两个红框中选择一个,第一个是一个空的系统,什么都没有,第二个是一个深度学习的系统,装好了CUDA以及很多框架,可以选择这一个,如果选择这个,那么需要的磁盘空间可能更大。
|
|
36 | 36 |
|
37 | 37 | 点击选择之后便可以进入下面的界面。
|
38 | 38 |
|
39 | | - |
| 39 | + |
40 | 40 |
|
41 | 41 |
|
42 | 42 | 这里需要选择实例类型,如果新注册的用户可以免费使用一年的t2.mirco实例,这个实例是没有GPU的,如果要使用GPU的实例,那么从上面的实例类型中选择GPU计算,便可以快速跳转到下面这里。
|
43 | 43 |
|
44 | 44 |
|
45 | | - |
| 45 | + |
46 | 46 |
|
47 | | -这里有很多个实例,一般我们就选第一个p2.xlarge,这个实例包含一个Nvidia k40GPU,后面有8块GPU和16块GPU的版本,当然费用也更高。选择完成之后我们可以进入下一步配置实例信息。 |
| 47 | +这里有很多个实例,一般我们就选第一个p2.xlarge,这个实例包含一个Nvidia k40GPU,后面有8块GPU和16块GPU的版本,当然费用也更高。除此之外,下面还有 p3.2xlarge,这里面包含更新的 GPU,速度也会快很多,当然价格也会贵一些,有一点需要注意,选择 p2.xlarge 只能安装 cuda8,而选择 p3.2xlarge 则可以安装 cuda9。选择完成之后我们可以进入下一步配置实例信息。 |
48 | 48 |
|
49 | 49 |
|
50 | | - |
| 50 | + |
51 | 51 |
|
52 | 52 | 这里我们只需要关注根目录的大小,也就是云端计算平台的硬盘大小,因为我们需要存放数据集,需要安装框架,所以需要大一点,新注册的用户可以免费试用30G的存储,我们可以设置为40G,一般费用比较便宜。然后点击审核和启动实例。
|
53 | 53 |
|
|
56 | 56 | 接着进入到下面这个界面,我们可以点击右下角的启动来启动实例了。
|
57 | 57 |
|
58 | 58 |
|
59 | | - |
| 59 | + |
60 | 60 |
|
61 | 61 |
|
62 | 62 |
|
|
74 | 74 | 然后你就可以看到你的实例正在启动,点击下图红框的地方进入具体的实例位置。
|
75 | 75 |
|
76 | 76 |
|
77 | | - |
| 77 | + |
78 | 78 |
|
79 | 79 |
|
80 | 80 |
|
81 | 81 | 然后可以进入到下面的界面,可以看到实例正在启动,右键点击实例这一栏,然后点击连接。
|
82 | 82 |
|
83 | | - |
| 83 | + |
84 | 84 |
|
85 | 85 |
|
86 | 86 |
|
@@ -147,15 +147,21 @@ source ~/.bashrc
|
147 | 147 |
|
148 | 148 | 我们去Nvidia官网下载CUDA并安装。选择正确的版本并获取下载地址。
|
149 | 149 |
|
150 | | -【注意】目前CUDA默认下载9.0版,但`mxnet-cu90`的daily build还不完善。建议使用下面命令安装8.0版。 |
| 150 | +【注意】目前官方默认是 cuda9,如果选择的是 p2.xlarge,则需要安装 cuda8,可以使用下面的命令来下载并安装 cuda8 |
| 151 | + |
| 152 | +```bash |
| 153 | +wget https://developer.nvidia.com/compute/cuda/8.0/Prod2/local_installers/cuda_8.0.61_375.26_linux-run |
| 154 | +sudo sh cuda_8.0.61_375.26_linux-run |
| 155 | +``` |
| 156 | + |
| 157 | + |
151 | 158 |
|
152 | 159 | 
|
153 | 160 |
|
154 | | -然后使用`wget`下载并且安装 |
| 161 | +然后使用`wget`下载并且安装 cuda9 |
155 | 162 |
|
156 | 163 | ```bash
|
157 | | -wget https://developer.nvidia.com/compute/cuda/8.0/Prod2/local_installers/cuda_8.0.61_375.26_linux-run |
158 | | -sudo sh cuda_8.0.61_375.26_linux-run |
| 164 | +wget https://developer.nvidia.com/compute/cuda/9.1/Prod/local_installers/cuda_9.1.85_387.26_linux |
159 | 165 | ```
|
160 | 166 |
|
161 | 167 | 这里需要回答几个问题。
|
@@ -186,10 +192,18 @@ nvidia-smi
|
186 | 192 |
|
187 | 193 | 就可以看到这个实例的GPU了。最后将CUDA加入到library path方便之后安装的库找到它。
|
188 | 194 |
|
| 195 | +cuda 8 |
| 196 | + |
189 | 197 | ```bash
|
190 | 198 | echo "export LD_LIBRARY_PATH=\${LD_LIBRARY_PATH}:/usr/local/cuda-8.0/lib64" >>.bashrc
|
191 | 199 | ```
|
192 | 200 |
|
| 201 | +cuda 9 |
| 202 | + |
| 203 | +```bash |
| 204 | +echo "export LD_LIBRARY_PATH=\${LD_LIBRARY_PATH}:/usr/local/cuda-9.1/lib64" >>.bashrc |
| 205 | +``` |
| 206 | + |
193 | 207 |
|
194 | 208 |
|
195 | 209 | ### 运行Jupyter notebook
|
|
0 commit comments