snapps教学(p4v使用教程

当前使用的是jetpack4.6,但通过刷新计算机后,我们得到了运行Ubuntu18.04版本的tx1。 尝试刷新官方提供的一系列组件时,遇到了空间不足的问题,参考在线教程加入固态硬盘,在扩展容量的基础上,研究了pytorch和tensorflow的构成。 现在总结这段时间的研究经验。

所谓固态硬盘安装,首先要看你的运营商主板接口。 以前使用的RTSO-9003承载板只有SD卡的接口,当然不能安装SSD的扩展容量。 随后,更换的板上有m2连接器,而且是key B,但大多数当前的m2固态连接器是与B key和M key都兼容的m.2(bm ) key连接器。

这里引用的是博客文章《Jetson TX1 加SSD固态硬盘并从硬盘启动》

在Ubuntu中搜索磁盘时,将显示与固态硬盘容量相同的空间区域和点编号

格式化时选择ext4,命名name,得到新的空间。

固态硬盘装载应该已完成。

将系统复制到固态的步骤

在上一步中打开磁盘图标并自动装载后,按ctrl L键显示装载路径

假设satassd是您的固态名称,路径为/media/nvidia/satassd

打开终端输入:

注意不要省略SDO CP-ax/’/media/NVIDIA/SATA SSD ‘单引号

此命令将系统复制到固态硬盘

下一步是更改启动路径。 更改前必须备份配置文件

CD/boot/extlinuxsudocpextlinux.confextlinux.conf.originalsudogedit/boot/ext Linux/ext Linux.conf文件:

主要是修改标签的部分,复制标签的部分,制作新的标签。 第一个级别是关于固态硬盘,第二个级别是关于emmc。

同时,第二行DEFAULT的位置默认选择从固态硬盘启动。

在Linux上,一切都是文件,配置也是通过修改文件完成的。

打开swap时,主要选择swap文件的位置

使用cd /home/nvidiamkdir swap和git中现成的工具生成swap文件

git clone https://github.com/jetson hacks/postflashtx1. gitcdpostflashtx 1如果选定位置为/home/nvidia/swap,则大小为16g

如果是

sudo./create swap file.sh-d/home/NVIDIA/swap-s16用于打开as WAP的工具

sudo swapon -asudo swapoff -a on启用打开、关闭启用关闭

查看在free中分配的空间

自由HL

无论是通过无线LAN安装jetpack components,还是通过OTA安装,还是通过电脑安装,都需要连接到网络。

最可靠的网络还是通过RJ45端口直接连接到以太网。 当然,如果运营商板上没有有线接口,也可以考虑无线网络。 但是,无法检测到tx1自身的无线网卡的信号。 另外,我的载板上也没有天线接口,所以在USB集线器上扩展了USB端口,插入了USB卡,提高了信号接收能力。

安装JetPack并由PC管理安装的一种方法是将电脑与tx1连接,通过USB连接,利用电脑Ubuntu上安装的jetpack4.6安装工具,将内部版本写入tx1 虽然互联网教程说要有线连接,但我可以直接测试,用无线连接到同一个局域网。

重要的是确保tx1和电脑位于同一局域网上,并且tx1可以获得外部网络。 因为在安装组件时,必须连接到网络才能安装到tx1。

中途安装时,请设定为不要休眠,以免电脑和tx1断开。

OTA安装了NVIDIA官方提供了How to Install JetPack的方法。

诸如TX1之类的只有16G的设备在嵌入式EMMC上直接执行OTA安装,应该执行以上所述的第二种方法。

sudoaptupdateaptdependsnvidia-jetpack ‘ {打印$2} ‘|xargs-I { } sudoaptinstall-y { }空间放大后,单击SSD或SD汽车

sudoaptupdatesudoaptinstallnvidia-jetpack,但是在我的TX1中添加了固态后,空间足够,直接完全安装了。

我相信Pytorch的安装康达曾经挥舞过Pytorch。 一般来说,通过在隔离的环境中安装Pytorch、tensorflow等,在发生问题或者需要安装多个版本的情况下,各个版本可以相互不影响。 因为TX1是AArch64体系结构,所以不能在电脑上直接安装Anaconda。 另外,我不想自己研究编译方法,所以我找了Archiconda进行安装。 同样可以用康达。

首先下载安装包,github的地址,然后下载执行安装。

而且很方便

用它创建虚拟环境,这里我后面装的是pytorch1.6,基于python3.6,所以环境也是基于python3.6:

conda create -n xxxx python=3.6

这里下载的时候,可能会出现http 000的错误,不同的人解决方法不一样,我试过换源、https改http都没用,最后是更新了conda解决的。

conda update -n base conda 安装pytorch

现在已经可以找到编译好的pytorch和tensorflow了
建立虚拟环境

conda create -n mtorch python=3.6

去官网论坛可以找到pytorch的下载地址。
我这里安装的是1.6版本

各位可以自行摸索最新版本的安装。
激活建立的是虚拟环境XXXX

conda activate xxxx

在虚拟环境下,依次安装库的依赖

sudo apt-get install python3-pip libopenblas-base libopenmpi-dev pip3 install Cython pip3 install numpy

最后安装下载好的whl文件,也就是pytorch

pip install torch-1.6.0-cp36-cp36m-linux_aarch64.whl 安装torchvision

安装完pytorch后,可以先去环境下测试下pytorch是否正常工作
像我就很不幸,执行下面命令

import torch

出现报错
Illegal instruction(core dumped)
这里查阅了很多网上的博主文章,还是这一位的方法解决了《NVIDIA JETSONTX2 安装 pytorch 出现错误:import torch 出现 Illegal instruction(core dumped)》。
这位博主的方法,主要意思是要你将export OPENBLAS_CORETYPE=ARMV8 加入环境变量里面。

”’修改环境变量”’sudo gedit /etc/profile 把 export OPENBLAS_CORETYPE=ARMV8 加入最后面一行,然后保存”’更新环境变量”’source /etc/profile

解决这个问题很重要,因为torchvision需要通过pytorch编译安装。
如果没有遇到这一问题,可直接执行torchvision的安装。

首先还是安装依赖

sudo apt-get install libjpeg-dev zlib1g-dev

这里如果有安装提示缺少包的,请换回官方源安装。

然后通过git去下载torchvision的代码,注意,官方的提示,torchvision与pytorch版本是要对应的:

下载

git clone –branch v0.7.0 https://github.com/pytorch/vision torchvision

github的下载速度有时候很慢,可以自行同步到gitee上,然后再用git下载。

cd torchvision export BUILD_VERSION=0.7.0 python3 setup.py install

不过这里安装最后也会遇到错误
/vision-0.7.0/torchvision/csrc/cpu/decoder/defs.h:12:10: fatal error: libavcodec/avcodec.h: No such file or directory
#include <libavcodec/avcodec.h>
^~~~~~~~~~~~~~~~~~~~~~
compilation terminated.

这里参照的一篇文章《NVIDIA Jetson之刷机后配置大全》。
修改 setup.py 文件,把 if has_ffmpeg 改为 if False即可。
如果出现pillow下载失败,只需要执行

pip install ‘pillow<7’ # always needed for Python 2.7, not needed torchvision v0.5.0+ with Python 3.6

至此,基本安装完成,只需要测试下

import torchvision

没有报错即可

以后每次使用的时候,先激活环境,然后再环境里面使用pytorch。我建立的环境叫mtorch,因此激活是

conda activate mtorch

要退出环境就:

conda deactivate tensorflow安装 从NVIDIA官网安装包和教程

tensorflow的安装就方便多了,直接可以去官网找到教程和下载地址,不像pytorch是去官网的论坛里面找的下载地址。
首先是建立它使用的虚拟环境

conda create -n mtensorflow python=3.6

然后,下载的通过Jetson 下载中心就可以找到。

官网还提供了教程。
这里面下载时候,如果下载完whl文件,直接通过pip命令安装的话

pip3 install tensorflow-2.5.0+nv21.6-cp36-cp36m-linux_aarch64.whl

经过一系列安装后,h5py的安装过程会遇到错误。
因此,必须要

$ sudo apt-get update$ sudo apt-get install libhdf5-serial-dev hdf5-tools libhdf5-dev zlib1g-dev zip libjpeg8-dev liblapack-dev libblas-dev gfortran

尤其是h5py必须按照官网论坛安装

sudo pip3 install -U h5py==2.10.0

不过,最好是按照官网的方法https://docs.nvidia.com/deeplearning/frameworks/install-tf-jetson-platform/index.html,一路照做。

同样,装完后,在python里面检查一下tensorflow是否成功激活。

import tensorflow as tftf.__version__

以后每次使用的时候,先激活环境,然后再环境里面使用tensorflow,这里我的环境是mtensorflow:

conda activate mtensorflow 安装keras

keras和tensorflow具有对应的关系,这个网上已经有许多列举,目前我从github上找到的关系表:

详细可以见keras-team/keras。
我这里用的是tensorflow2.5,只需要按照2.5版本的keras,用pip list查看后发现已经装好了。因此就不用装了。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注