项目代码:https://github.com/CISLab-HKUST/Flame-SIGGRAPH2017
一. VSCode安装和配置
官网下载VSCode,在VSCode的插件搜Remote-SSH
填好Config:在搜索文件处输入> ssh config
,进入.ssh的config文件,填写并保存:
Host 10.xx.xx.xx
HostName 10.xx.xx.xx
User xxx
进入远程环境:在搜索文件处输入> ssh connect
,选中后输入地址,进入远程,输入密码后,就能在VSCode远程操作了,可以根据Git仓库直接拷贝一个到远程。
二. 配置miniconda
注意:以下操作基于远程ssh操作
由于直接使用pip3指令会没有权限,因此我们需要在miniconda装自己的python环境
去https://docs.conda.io/projects/miniconda/en/latest/下载Linux版本
拖到远程的文件夹,然后在远程环境执行sh指令
一路按回车直到出现这个:
现在可以配置Conda的Python环境了:
conda create -n py38 python=3.8
conda activate py3.8
选取右下角Python环境,选择Conda
现在就可以使用Conda的虚拟环境啦
顺便更换一下清华源:
指令输入vim ~/.condarc
,按i
进入insert状态,把清华源里面的下面这段复制进去,按ESC
+:wq
退出vim编辑。
注意:本项目需要在Python3.8
环境下运行,即看到环境为Base时,需要conda activate py3.8
遇到的Pytorch的坑
配环境时不小心改了一下Pytorch版本,结果再跑项目的时候就报错 NVIDIA GeForce RTX 4090 with CUDA capability sm_89 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_70 sm_75.
,这是因为pytorch
版本过低,要重新安装。
注意:尽量使用pip安装,因为conda安装后有时还是不会安装cuda对应版本,我就踩坑了,装到CPU版本的cuda了,发现:
torch.cuda.is_available()
FALSE
去https://pytorch.org/get-started/locally/
查看支持自身cuda的版本,然后执行以下代码,以安装pytorch for cuda 11.8
。
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
三. 启动工程
3.1 工程环境的配置
由于直接跑setup.py
,下载源会比较慢,用以下指令来跑
pip install -i https://pypi.mirrors.ustc.edu.cn/simple/ -r requirements.txt
跑这个项目需要到官网的下载页去下载,但是下载速度很慢。。
我投机取巧了,直接在GitHub上搜到对应项目的包体复用,直接用这个、和这个来下载,放到Model文件夹里面去:
然后根据scene输出图片,要自己写渲染输出逻辑:
def render_by_scene(scene, index):
# 创建相机
camera = pyrender.PerspectiveCamera(yfov=np.pi/3.0, aspectRatio=1.0)
camera_pose = np.eye(4)
camera_pose[:3, 3] = [0, 0, 2]
scene.add(camera, pose=camera_pose)
# 创建渲染器
renderer = pyrender.OffscreenRenderer(viewport_width=640, viewport_height=480)
# 渲染场景并保存图像
color, depth = renderer.render(scene)
img_str = 'output/output_' + str(index) + '.png'
imageio.imwrite(img_str, color)
3.2 XServer的配置
在执行代码的过程中,会发现一些报错:
pyglet.canvas.xlib.NoSuchDisplayException: Cannot connect to None
、pyglet.gl.ContextException: Could not create GL context:
原因是ssh环境不支持可视化界面,需要用Xvfb
解决,Mac端安装XQuartz,教程在这里
Xvfb :99 &
export DISPLAY=:99
在本地端,需要用XQuartz执行ssh -Y
指令:ssh -Y xxx@10.xx.xx.xx
并且在本地端的config上配置这些信息
Host 10.xx.xx.xx
HostName 10.xx.xx.xx
User xxx
ForwardX11 yes
ForwardX11Trusted yes
ForwardAgent yes
在远程服务端设置DISPLAY环境变量(注意,每次启动远程都要输入这行),关于这个指令的一些信息:
export DISPLAY=:99
再次在远程输入glxinfo | grep rendering
,验证是否成功:
最后跑python3 main.py
,成功了!
3.3 环境配置的导出
由于原工程文件已经包含requirement.txt
,因此我们还要加上Pytorch for cuda 11.8
的代码指令,即定义一个config.sh
文件,在README.md声明需要执行该sh文件;
此外还需要创建一个新虚拟环境,因为其他按照其他GitHub安装的CPU版本的Torch把我坑掉的情况太多了:
#!/bin/bash
conda create -n py3.8_FLAME_PyTorch python=3.8
eval "$(conda shell.bash hook)"
conda activate py3.8_FLAME_PyTorch
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip3 install -i https://pypi.mirrors.ustc.edu.cn/simple/ -r requirements.txt
conda activate
貌似在shell脚本中不会生效,因此还是需要使用者自行切换环境执行:
conda activate py3.8_FLAME_PyTorch
export DISPLAY=:99
conda install -c conda-forge libstdcxx-ng
// 在初始化环境时执行
sh config.sh
在模拟其他环境操作时,一键安装发现以下坑,记录一下:
libGL error: MESA-LOADER: failed to open swrast: /usr/lib/dri/swrast_dri.so: cannot open shared object file: No such file or directory (search paths /usr/lib/x86_64-linux-gnu/dri:\$${ORIGIN}/dri:/usr/lib/dri, suffix _dri)
解决:
conda install -c conda-forge libstdcxx-ng
3.4 自动脚本的配置
目前感觉有两个坑,一个是conda环境每次都自动进入base环境,但我想进入py3.8环境;
另一个是每次都要执行export DISPLAY=:99
,因为当在终端中运行图形应用程序时,该应用程序需要知道显示名称以便将其显示在屏幕上。如果没有设置 DISPLAY 环境变量,或者设置了错误的值,图形应用程序将无法显示。
因此,我设置了一个登录服务器时自动运行的脚本,这样就不用每次登录都要重复输入指令了,脚本指令如下:
首先,我们需要创建自动运行脚本,命名为 auto.sh
,并放到根目录下:
conda activate py3.8
export DISPLAY=:99
// 这个用来调试脚本是不是自动运行成功
// echo "Hello, world!"
控制台输入指令vim ~/.bashrc
,按i插入下面代码,放到最后,按ESC,:wq,结束编辑
if [ -f "/home/xxx/auto.sh" ]; then
. "/home/xxx/auto.sh"
fi
最后再在登录时验证即可
四. 推送到GitHub仓库
在GitHub个人主页新建一个仓库,并复制仓库地址
添加自己的 Git 仓库作为远程仓库:
git remote add myrepo https://github.com/youruser/yourrepo.git
并fetch
git fetch myrepo
在VSCode上面,写Commit信息,提交推送,此时VSCode会提示在自己的仓库创建一个分支,按他操作即可:
最后即可在自己仓库上看到提交信息了: