一、Jetson TX2烧机
强烈建议给TX2烧机时选择jetpack4.2。
jetpack3.3没有对应的whl,踩坑无数还没有成功。
MVBM102(JETSON TX2 V3.3-U16.04)
密码:e9bh
https://pan.baidu.com/s/1s7sjZGP7Md2YKpj9a5PRVw
功能简述:Ubuntu 16.04 jetpack3.3 SDK 1.0.0 caffe
更新日期:2019-06-06
MVBM102(JETSON TX2 V4.2-U18.04)
密码:jvqe
https://pan.baidu.com/s/1ngJidSew68-kV6nLi1besg
功能简述:Ubuntu 18.04 jetpack4.2 SDK 1.0.0 caffe
更新日期:2019-06-06
这里选第二个,下载的包里有刷机的PDF,照做即可。
烧机自带的环境包括:
- ubuntu 18.06
- python 2.7.15
- python3 3.6.7
- pip 9.0.1(python2.7)
- pip 9.01 (python3.6)
- CUDA 10.0.166 (
cat /usr/local/cuda/version.txt
) - opencv 3.3.1 (
pkg-config --modversion opencv
) - jetpack R32(
head -n 1 /etc/nv_tegra_release
) - tensorRT 5.0.6(
dpkg -l | grep TensorRT
)
二、whl安装pytorch
参考网址:
https://devtalk.nvidia.com/default/topic/1049071/jetson-nano/pytorch-for-jetson-nano/
https://blog.csdn.net/weixin_37598106/article/details/90646872
可以选择python2也可以选择python3,这里我选的是python3。(如果选择python2,则在命令行中使用命令的时候直接用python和pip,而非python3和pip3。)
安装的torch版本为1.1.0。
1. 下载whl文件
有两种方式,任选其一即可。
命令行下载
wget https://nvidia.box.com/shared/static/veo87trfaawj5pfwuqvhl6mzc5b55fbj.whl -O torch-1.1.0a0+b457266-cp36-cp36m-linux_aarch64.whl
百度云盘下载
https://pan.baidu.com/s/1H12MoUvf33sZl5mmdpT7jQ
密码:ribc
2. 安装whl文件
进入文件所在目录,执行
pip3 install numpy torch-1.1.0a0+b457266-cp36-cp36m-linux_aarch64.whl
3. 测试torch
新建python文件,代码如下
import torch
print(torch.__version__)
print('CUDA available: ' + str(torch.cuda.is_available()))
a = torch.cuda.FloatTensor(2).zero_()
print('Tensor a = ' + str(a))
b = torch.randn(2).cuda()
print('Tensor b = ' + str(b))
c = a + b
print('Tensor c = ' + str(c))
使用python3命令执行该文件,没有报错就一切顺利
4. 安装torchvision
sudo pip3 install --no-deps torchvision==0.2.0
5. 测试torchvision
新建python文件,代码如下
import torchvision
print(torchvision.__version__)
使用python3命令执行该文件,没有报错就一切顺利
三、总结
配环境到现在一共花了三周。
最开始选择的是jetpack3.3,从源码安装各种装不上。现在发现jetpack4.2用whl非常方便。可能有的时候要想想源头对不对:)