可以这么说:"无穷次测量,在precision允许的范围内误差为零"应该没问题。
sigma是一个标准误差(Standard deviation).可以理解成单次测量的误差水平。
这个公式就是说测得越多越准确。
但sigma同样受precision的限制。
在你报告sigma_mean的时候,precision不能报错。
eg: N=100, mean=10., 1 sigma=1., sigma_mean= 0.
precision是 0 digit after decimal point.
报成sigma_mean= 0.1是错的