使用前先配置好JNeRF环境!
因为JNeRF模块化之间过于耦合,很难提取出纯推理的接口,还是调用了runner
里面的接口
所以调用前需要加载一次训练的数据集,用来获取数据集参数
在data
文件夹下放好数据集,在models
文件夹下放好训练的模型,就可以使用inference
了
数据集和模型比较大,放在网盘上了,链接在对应的readme文件里,也可以直接在网盘文件夹里找
-
ATTENTION 使用
git lfs
将训练好的模型上传了,clone时如果网络不好下载不下来,可以用GIT_LFS_SKIP_SMUDGE=1 git clone <repository-add>
来跳过该文件。 -
P.S. 使用系统的包管理器安装
git lfs
,如ubuntu下apt install git-lfs
。
-
data
存放训练的数据集
-
data_process
数据处理的脚本
-
inference
模型推理接口
-
models
训练好的模型
-
ui
主程序,交互界面
https://cowtransfer.com/s/23d7c51f3b3a4c
3e7gtc