不造假是很清晰明确的。
一个行业标准的数据集,我说这些数据有XX特征,基于这个特征我做了什么什么优化获得好的性能。但是数据集中某些数据显然是不具备这些特征的,我把这些数据剔除,或者把数据集的一个子类全部删除。然后,也说了我的算法只在某类场景下有效。在我提供的数据下,算法和标准算法的结果能反复重现。但是在标准集下就是不行。
但是实际上,我的算法总是预测错误一些数据,剔除这些数据,结果就好很多。
【 在 geostar 的大作中提到: 】
: 前面那种不说剔除,不说剔除原则,就算,后面那种归一化,不算。
: 经得起检验,你要有依据。
: 只有拿一批全新的数据,进行检验,能通过才算。
: ...................
--
FROM 60.247.5.*