审了一篇论文,研究的是“深度学习模型的公平性”。但把公平定义的很扭曲,只要模型的筛选结果结果在所谓的“受保护属性”上有统计差异,就判定模型不公平。例如一个入学资格判定的模型,如果判定结果在男女或肤色之类的“受保护属性”上不平衡,就算不公平。
我直接把稿子拒了,告诉作者不能这么定义公平性。因为基于给定样本,相对于判定而言中肯的属性可能和所谓的受保护属性之间有显著的统计相关(例如数学物理成绩可能跟性别或肤色有显著相关)。这样,模型依据中肯的属性做判定时,必然会导致判别结果在受保护属性上有统计差异。但这不应被定义为不公平。
--
修改:qtpr FROM 111.167.208.*
FROM 111.167.208.*