数据处理是有标准的,相差几个方差算离散点,置信区间多少。这方面的问题也很难查,主要靠自己。
个人觉得最重要的是可重现性,在你提供的条件下能百分之多少重现你的结果。
对计算机数学之类的学科来说比较容易做重复实验,生化环材医就难多了。一方面本身影响因素众多,一些因素本身不可控,包括操作者的技术能力;另一方面成本太高,一篇文章的成本动辄几十上百万,就好像制造业开发个产品可能几百万或者几千万就够了,但做个新药十个亿可能都不够。
【 在 zhengyuluck 的大作中提到: 】
: 我剔除几个异常数据,或者对一些数据做些标准化归一化但我不提这些预处理过程。这算造假吗?
: 或者我已经明确说我的算法在某个应用场景下特别有效。然后在我提供的数据集下,就是比常用算法强,经得起检验,这算数据造假吗?
--
FROM 218.249.94.*