-
Notifications
You must be signed in to change notification settings - Fork 7
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
result #14
Comments
hello,i meet the same question ,maybe we can discuss about the result? in my result ,the point cloud can not be saw in image |
@zhusai1234 I also can not reproduce the results in the original paper. Unfortunately, I'm not familiar with Tensorflow and my GPU is also not compatible with CUDA 8, so I did not implement the original code provided by the author. If you have some results, you can upload here and we can discuss.
@thompsoncjh I think it is impossible to met this problem, which means the extrinsics are too bad to allow any points to be projected onto the image. You can check if the extrinsics are correct and use |
one more question,the extrinsics is like this? |
你好,我是一名研0的学生,研究方向也是有关三维计算机视觉方面的,是一名新手。最近在复现calibnet这篇论文,在github上看见了你的贴子,也成功复现了。但是有关最后的测试结果我有些疑问。在原文中,只提及了一些误差的大小,但有关激光雷达和相机的外参大小预测的结果是什么并没有提及,我利用了cam2_oneiter_best.pth进行训练,把测试过程中中间的外参做了提取(本身也有kitti数据集中的calib中的Tr差别很大,这是正常的吗?),但利用这个外参进行点云投影至图像上的时候,发现效果很差,完全看不到点云。
最终的这个结果应该也是和真实值的误差大小吧?
那么通过深度学习预测的最终激光雷达和相机的外参又改如何查看呢,是应该在测试的过程中像下面一样print出来吗?
祝您工作顺利,生活愉快,如有打扰,非常抱歉,期待您的回复
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月11日(星期二) 晚上10:57
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
Excuse me, blogger, why the final result doesn't seem to be satisfactory, and why I can't use the prediction to make the point cloud and the image match better.
@zhusai1234 I also can not reproduce the results in the original paper. Unfortunately, I'm not familiar with Tensorflow and my GPU is also not compatible with CUDA 8, so I did not implement the original code provided by the author. If you have some results, you can upload here and we can discuss.
hello,i meet the same question ,maybe we can discuss about the result? in my result ,the point cloud can not be saw in image
@thompsoncjh I think it is impossible to met this problem, which means the extrinsics are too bad to allow any points to be projected onto the image.
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
CalibNet预测的外参是uncalibrated pointcloud与image的外参,不是初始点云和image的外参,因此这个外参和KITTI提供的真值并不是一个外参。uncalibrated pointcloud是先乘真实外参再乘一个扰动矩阵得到的,因此CalibNet预测的其实是那个扰动矩阵的逆矩阵。在计算metric时类似,例如: Line 67 in a362a77
计算的是CalibNet预测的扰动和真实的扰动的Euler Angle和translation的误差。 如若对该扰动不熟悉,可以查看:dataset.py |
你好,上封邮件非常抱歉没有向您说明我的身份,我是南京航空航天大学研0学生柴家辉,对于calibnet复现也看了有一段时间了。您的回复让我恍然大悟,正如您所说,calibnet预测的是扰动矩阵的逆矩阵,这个扰动矩阵我认为可能是自动驾驶在车辆的行驶过程中由于颠簸什么导致的。那么评价最终的测试最终结果,应该就是通过计算预测的扰动矩阵和真实设置的扰动矩阵的逆矩阵之前的误差大小吧,也就是rot_dx,tsl_dx = loss_utils.gt2euler(dg.squeeze(0).cpu().detach().numpy())吧。
如果rot_dx和tsl_dx越接近于0,说明测试的效果越好吧。这也是为什么要做五千多组测试再取平均值的原因吧。
另外有关扰动矩阵以及纠正扰动矩阵的可视化方面,github代码上是没有做吗,我自己接下来打算做做这个。
最后,calibnet作为利用深度学习的方法确实没有做到预测原始点云和图像的标定,那您对于利用深度学习预测原始点云和图像的外参标定有什么建议吗
非常抱歉这么晚打扰您休息,祝您睡个好觉,工作顺利,家人身体健康,万事如意!
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月12日(星期三) 下午3:49
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
你好,我是一名研0的学生,研究方向也是有关三维计算机视觉方面的,是一名新手。最近在复现calibnet这篇论文,在github上看见了你的贴子,也成功复现了。但是有关最后的测试结果我有些疑问。在原文中,只提及了一些误差的大小,但有关激光雷达和相机的外参大小预测的结果是什么并没有提及,我利用了cam2_oneiter_best.pth进行训练,把测试过程中中间的外参做了提取(本身也有kitti数据集中的calib中的Tr差别很大,这是正常的吗?),但利用这个外参进行点云投影至图像上的时候,发现效果很差,完全看不到点云。 最终的这个结果应该也是和真实值的误差大小吧? 那么通过深度学习预测的最终激光雷达和相机的外参又改如何查看呢,是应该在测试的过程中像下面一样print出来吗? 祝您工作顺利,生活愉快,如有打扰,非常抱歉,期待您的回复
…
------------------ 原始邮件 ------------------ 发件人: "gitouni/CalibNet_pytorch" @.>; 发送时间: 2024年6月11日(星期二) 晚上10:57 @.>; @.@.>; 主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14) Excuse me, blogger, why the final result doesn't seem to be satisfactory, and why I can't use the prediction to make the point cloud and the image match better. @zhusai1234 I also can not reproduce the results in the original paper. Unfortunately, I'm not familiar with Tensorflow and my GPU is also not compatible with CUDA 8, so I did not implement the original code provided by the author. If you have some results, you can upload here and we can discuss. hello,i meet the same question ,maybe we can discuss about the result? in my result ,the point cloud can not be saw in image @thompsoncjh I think it is impossible to met this problem, which means the extrinsics are too bad to allow any points to be projected onto the image. — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>
CalibNet预测的外参是uncalibrated pointcloud与image的外参,不是初始点云和image的外参,因此这个外参和KITTI提供的真值并不是一个外参。uncalibrated pointcloud是先乘真实外参再乘一个扰动矩阵得到的,因此CalibNet预测的其实是那个扰动矩阵的逆矩阵。在计算metric时类似,例如:
https://github.com/gitouni/CalibNet_pytorch/blob/a362a779a5951b24ded0d7196083a1249b587898/test.py#L67
计算的是CalibNet预测的扰动和真实的扰动的Euler Angle和translation的误差。
如若对该扰动不熟悉,可以查看:dataset.py
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
|
好的,感谢您的回复,我也不熟悉tensorflow,所以选择复现您的代码,我想知道的是在您的代码中的最后结果角度误差达到了2点几,3点几的,为何和原论文中0点几差别很大,想知道是什么原因导致,并且在demo中,我发现在乘完预测扰动后的结果比只加真实扰动的结果还要偏移,这是不是就说明了我的预测结果很差?还是我哪里理解错误了,请指正! |
请问下既然预测的是扰动矩阵的逆矩阵,那为何后面算的是预测的扰动矩阵的逆矩阵和真实的扰动矩阵之间的误差呢 |
既然预测的是扰动矩阵的逆矩阵,那为何后面算的是预测的扰动矩阵的逆矩阵和真实的扰动矩阵之间的误差呢?
我是这么理解的,他最后计算的dg其实是等于igt和Tcl的相乘,如果预测正确的话,理论上应该接近于一个单位矩阵。但实际上,预测出来会有一些偏差,也就是loss,代码中再将这个矩阵形式用欧拉角和平移向量表示。这个dg与原本的真实外参相乘,应该就是预测的外参。他计算这个dg应该就是用来评价,预测出来的扰动矩阵的逆矩阵能否很好的把扰动矩阵给修正为单位矩阵,从而将受扰动矩阵影响的外参修正为原本的正确的外参。
至于最后的角度误差达到了2点几,3点几的,为何和原论文中0点几差别很大,我也确实有过这样的情况出现。此外,在demo中,在乘完预测扰动矩阵的逆矩阵后的结果比只加扰动矩阵的结果还要差,我之前取了几组数据进行实验,有一些会好一点,但是有一些也会更差。我觉得更差的很大程度上应该是预测扰动矩阵的逆矩阵预测的不够准确吧,模型可能没有论文中的那么完美吧
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月17日(星期一) 中午11:02
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
你好,我是一名研0的学生,研究方向也是有关三维计算机视觉方面的,是一名新手。最近在复现calibnet这篇论文,在github上看见了你的贴子,也成功复现了。但是有关最后的测试结果我有些疑问。在原文中,只提及了一些误差的大小,但有关激光雷达和相机的外参大小预测的结果是什么并没有提及,我利用了cam2_oneiter_best.pth进行训练,把测试过程中中间的外参做了提取(本身也有kitti数据集中的calib中的Tr差别很大,这是正常的吗?),但利用这个外参进行点云投影至图像上的时候,发现效果很差,完全看不到点云。 最终的这个结果应该也是和真实值的误差大小吧? 那么通过深度学习预测的最终激光雷达和相机的外参又改如何查看呢,是应该在测试的过程中像下面一样print出来吗? 祝您工作顺利,生活愉快,如有打扰,非常抱歉,期待您的回复
…
------------------ 原始邮件 ------------------ 发件人: "gitouni/CalibNet_pytorch" @.>; 发送时间: 2024年6月11日(星期二) 晚上10:57 _@**._>; ***@***.***@._>; 主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14) Excuse me, blogger, why the final result doesn't seem to be satisfactory, and why I can't use the prediction to make the point cloud and the image match better. @zhusai1234 I also can not reproduce the results in the original paper. Unfortunately, I'm not familiar with Tensorflow and my GPU is also not compatible with CUDA 8, so I did not implement the original code provided by the author. If you have some results, you can upload here and we can discuss. hello,i meet the same question ,maybe we can discuss about the result? in my result ,the point cloud can not be saw in image @thompsoncjh I think it is impossible to met this problem, which means the extrinsics are too bad to allow any points to be projected onto the image. — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: _@_.*>
CalibNet预测的外参是uncalibrated pointcloud与image的外参,不是初始点云和image的外参,因此这个外参和KITTI提供的真值并不是一个外参。uncalibrated pointcloud是先乘真实外参再乘一个扰动矩阵得到的,因此CalibNet预测的其实是那个扰动矩阵的逆矩阵。在计算metric时类似,例如:
https://github.com/gitouni/CalibNet_pytorch/blob/a362a779a5951b24ded0d7196083a1249b587898/test.py#L67
计算的是CalibNet预测的扰动和真实的扰动的Euler Angle和translation的误差。
如若对该扰动不熟悉,可以查看:dataset.py
请问下既然预测的是扰动矩阵的逆矩阵,那为何后面算的是预测的扰动矩阵的逆矩阵和真实的扰动矩阵之间的误差呢
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
感谢你的回答,上面的了解了,那么其实还要个疑问就是为什么只有旋转角度差别比较大,平移的就还好。 |
那么其实还要个疑问就是为什么只有旋转角度差别比较大,平移的就还好?
有一个问题我想问一下,就是你test的过程中采用的预训练好的checkpoint是readme里面下载的吗,你说的只有旋转角度差别很大、平移误差不大,是从test的log中看出来的吗
你最终的结果是不是和readme的results很接近啊?
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月17日(星期一) 中午11:38
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
既然预测的是扰动矩阵的逆矩阵,那为何后面算的是预测的扰动矩阵的逆矩阵和真实的扰动矩阵之间的误差呢? 我是这么理解的,他最后计算的dg其实是等于igt和Tcl的相乘,如果预测正确的话,理论上应该接近于一个单位矩阵。但实际上,预测出来会有一些偏差,也就是loss,代码中再将这个矩阵形式用欧拉角和平移向量表示。这个dg与原本的真实外参相乘,应该就是预测的外参。他计算这个dg应该就是用来评价,预测出来的扰动矩阵的逆矩阵能否很好的把扰动矩阵给修正为单位矩阵,从而将受扰动矩阵影响的外参修正为原本的正确的外参。 至于最后的角度误差达到了2点几,3点几的,为何和原论文中0点几差别很大,我也确实有过这样的情况出现。此外,在demo中,在乘完预测扰动矩阵的逆矩阵后的结果比只加扰动矩阵的结果还要差,我之前取了几组数据进行实验,有一些会好一点,但是有一些也会更差。我觉得更差的很大程度上应该是预测扰动矩阵的逆矩阵预测的不够准确吧,模型可能没有论文中的那么完美吧
…
------------------ 原始邮件 ------------------ 发件人: "gitouni/CalibNet_pytorch" @.>; 发送时间: 2024年6月17日(星期一) 中午11:02 @.>; @.@.>; 主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14) 你好,我是一名研0的学生,研究方向也是有关三维计算机视觉方面的,是一名新手。最近在复现calibnet这篇论文,在github上看见了你的贴子,也成功复现了。但是有关最后的测试结果我有些疑问。在原文中,只提及了一些误差的大小,但有关激光雷达和相机的外参大小预测的结果是什么并没有提及,我利用了cam2_oneiter_best.pth进行训练,把测试过程中中间的外参做了提取(本身也有kitti数据集中的calib中的Tr差别很大,这是正常的吗?),但利用这个外参进行点云投影至图像上的时候,发现效果很差,完全看不到点云。 最终的这个结果应该也是和真实值的误差大小吧? 那么通过深度学习预测的最终激光雷达和相机的外参又改如何查看呢,是应该在测试的过程中像下面一样print出来吗? 祝您工作顺利,生活愉快,如有打扰,非常抱歉,期待您的回复 … ------------------ 原始邮件 ------------------ 发件人: "gitouni/CalibNet_pytorch" @.>; 发送时间: 2024年6月11日(星期二) 晚上10:57 @**.>; @.@._>; 主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14) Excuse me, blogger, why the final result doesn't seem to be satisfactory, and why I can't use the prediction to make the point cloud and the image match better. @zhusai1234 I also can not reproduce the results in the original paper. Unfortunately, I'm not familiar with Tensorflow and my GPU is also not compatible with CUDA 8, so I did not implement the original code provided by the author. If you have some results, you can upload here and we can discuss. hello,i meet the same question ,maybe we can discuss about the result? in my result ,the point cloud can not be saw in image @thompsoncjh I think it is impossible to met this problem, which means the extrinsics are too bad to allow any points to be projected onto the image. — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.> CalibNet预测的外参是uncalibrated pointcloud与image的外参,不是初始点云和image的外参,因此这个外参和KITTI提供的真值并不是一个外参。uncalibrated pointcloud是先乘真实外参再乘一个扰动矩阵得到的,因此CalibNet预测的其实是那个扰动矩阵的逆矩阵。在计算metric时类似,例如: https://github.com/gitouni/CalibNet_pytorch/blob/a362a779a5951b24ded0d7196083a1249b587898/test.py#L67 计算的是CalibNet预测的扰动和真实的扰动的Euler Angle和translation的误差。 如若对该扰动不熟悉,可以查看:dataset.py 请问下既然预测的是扰动矩阵的逆矩阵,那为何后面算的是预测的扰动矩阵的逆矩阵和真实的扰动矩阵之间的误差呢 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.*>
感谢你的回答,上面的了解了,那么其实还要个疑问就是为什么只有旋转角度差别比较大,平移的就还好。
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
是的,很接近,我重新训练后(改了一点其他的参数啥的),再test结果也差不多 |
@zhusai1234 平移其实不好,因为平移每个轴有5cm以上的差距其实是很不小的了。平移一直是深度学习方法里面较难解决的问题,除非通过一些语义先验来优化。在很多场景中,外参y方向的平移对于损失的影响非常小,因为激光雷达存在扫描界限,扫出的大部分物体上界限不完整,无法判断。 |
所以您觉得这种问题的出现主要是网络的问题还是方法的问题 |
我不太明白这二者的区别在哪,但应该属于方法问题,不是技术性bug。 |
就是您觉得这个改个网络的事情就能把结果变好嘛 |
个人的观点,我觉得光改网络结构是不太可能提升精度的,这本质上是一个Direct Model。如果感兴趣的话,也可以看看我做的标定工作。 |
您这里说的,在demo中,发现在乘完预测扰动后的结果比只加真实扰动的结果还要偏移,会不会是左乘或是右乘的问题,您又是如何计算的呢?
我是这么进行可视化的:
将extran=calib.T_cam2_velo设为未加扰动矩阵时的外参
将extran=calib.T_cam2_velo*igt设为加扰动矩阵后的外参
将extran=calib.T_cam2_velo*dg设为去除扰动后的外参(标定结果理想的话接近于ground truth,即未加扰动矩阵的外参)
不知道我这样的做法、拙见是否正确,希望您们可以给我一个答复,祝大家工作顺利、身体健康!
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月17日(星期一) 上午10:56
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
Excuse me, blogger, why the final result doesn't seem to be satisfactory, and why I can't use the prediction to make the point cloud and the image match better.
@zhusai1234 I also can not reproduce the results in the original paper. Unfortunately, I'm not familiar with Tensorflow and my GPU is also not compatible with CUDA 8, so I did not implement the original code provided by the author. If you have some results, you can upload here and we can discuss.
hello,i meet the same question ,maybe we can discuss about the result? in my result ,the point cloud can not be saw in image
@thompsoncjh I think it is impossible to met this problem, which means the extrinsics are too bad to allow any points to be projected onto the image. You can check if the extrinsics are correct and use demo.py to visualize the result.
好的,感谢您的回复,我也不熟悉tensorflow,所以选择复现您的代码,我想知道的是在您的代码中的最后结果角度误差达到了2点几,3点几的,为何和原论文中0点几差别很大,想知道是什么原因导致,并且在demo中,我发现在乘完预测扰动后的结果比只加真实扰动的结果还要偏移,这是不是就说明了我的预测结果很差?还是我哪里理解错误了,请指正!
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
我是左乘,TCL* igt * T *pcd |
我想问作者,我发现你训练中的loss和测试中的衡量指标好像不太相同,会不会是这个的原因 |
你可以尝试一下把转置给去了,因为预测的值其实就是扰动矩阵的转置,那么预测的值和扰动的值在进行乘法计算的过程中可能就不需要再加转置了。
发自我的iPhone
…------------------ Original ------------------
From: zhusai1234 ***@***.***>
Date: Thu,Jun 20,2024 11:31 AM
To: gitouni/CalibNet_pytorch ***@***.***>
Cc: thompsoncjh ***@***.***>, Mention ***@***.***>
Subject: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
我是左乘,TCLigtT*pcd
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
没有转置哈,我这个T是你的calib.T_cam2_velo |
测试的时候是metric不是loss,计算metric的时候计算photo loss和geometry loss没有什么意义,目标是优化外参 |
你好作者,关于test的代码有两部分我没有怎么看明白,希望您能答疑解惑一下。
首先是,for j in range(args.inner_iter)这个循环的作用是什么,因为我之前把j打印出来,发现这个循环好像只有一次
其次是,uncalibed_depth_img 和 uncalibed_pcd的再产生意义是什么,和之前从batch中读取的uncalibed_depth_img、uncalibed_pcd会有所冲突或者是替代吗?
最后还有一点想要得到您的确认,就是测试中跑了五千多趟的目的是为了得到最后的mean error,但是我如果想要实现可视化效果,想要看看对于扰动矩阵的去除效果(想要看看对于加入扰动矩阵的未标定标定的标定效果),是否仅需要从这五千多趟中打印出某几趟的igt, Tcl, dg,再乘以ground truth的外参,得到最后标定的外参呢?
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月21日(星期五) 上午7:19
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
我想问作者,我发现你训练中的loss和测试中的衡量指标好像不太相同,会不会是这个的原因
测试的时候是metric不是loss,计算metric的时候计算photo loss和geometry loss没有什么意义,目标是优化外参
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
|
这个严格来说是对SE(3)求逆不是转置,预测的是扰动矩阵的逆,所以使用这个外参可以直接把uncalibed_pcd投影到图像上。 |
是的,我这么尝试后发现确实是可以的,但是test利用calibnet网络对受扰动的矩阵进行去扰动,并将预测的结果Tcl与uncalibed_pcd直接相乘,便可得到投影图。其中一个投影图如下(在我看来效果较好),
当然也有像这种效果较差的
但是我有一点不明白的,为何在test中要跑那么多次,这个test_seq.csv的作用是什么。在我的测试过程中,test_seq.csv包含有五千多行数据,在我的理解中,是否是对原有点云进行五千多次扰动,再分别对每一次扰动进行去扰动,得到预测的外参呢。如果是这样,那应该是train应该做的事情吧?这样可以再根据投影的误差大小再对calibnet网络的参数进行调整。
…------------------ 原始邮件 ------------------
发件人: "gitouni/CalibNet_pytorch" ***@***.***>;
发送时间: 2024年6月23日(星期天) 下午3:43
***@***.***>;
***@***.******@***.***>;
主题: Re: [gitouni/CalibNet_pytorch] result (Issue #14)
你可以尝试一下把转置给去了,因为预测的值其实就是扰动矩阵的转置,那么预测的值和扰动的值在进行乘法计算的过程中可能就不需要再加转置了。 发自我的iPhone
…
------------------ Original ------------------ From: zhusai1234 @.> Date: Thu,Jun 20,2024 11:31 AM To: gitouni/CalibNet_pytorch @.> Cc: thompsoncjh @.>, Mention @.> Subject: Re: [gitouni/CalibNet_pytorch] result (Issue #14) 我是左乘,TCLigtTpcd — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.**>
这个严格来说是对SE(3)求逆不是转置,预测的是扰动矩阵的逆,所以使用这个外参可以直接把uncalibed_pcd投影到图像上。
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
|
您这个checkpoint是测试时的吗,为何我重新训练的结果和作者的readme结果差不多,可以告知您更改了哪些参数嘛,麻烦了 |
你重新训练是用的我的代码吗?如果你复现了作者的结果,可以把参数分享在这里。 |
是的,但其实平移问题才是标定里面比较难的。 |
训练参数在train.py文件里面有的。 目前该项目已经停止维护了,本人的新工作包含了新复现的CalibNet,但由于论文尚未发表,所以代码暂时不能公开。 |
Perhaps we could have a private chat? I noticed that you quoted our work recently. |
Excuse me, blogger, why the final result doesn't seem to be satisfactory, and why I can't use the prediction to make the point cloud and the image match better.
The text was updated successfully, but these errors were encountered: