无穷次测量,理论上误差为零吧。 - booksbooks


所有跟贴·加跟贴·新语丝读书论坛

送交者: tidan 于 2011-01-03, 19:41:25:

回答: 那你解释一下那个公式是什么意思? 由 OO8 于 2011-01-03, 17:40:54:

可以这么说:"无穷次测量,在precision允许的范围内误差为零"应该没问题。

sigma是一个标准误差(Standard deviation).可以理解成单次测量的误差水平。
这个公式就是说测得越多越准确。
但sigma同样受precision的限制。
在你报告sigma_mean的时候,precision不能报错。
eg: N=100, mean=10., 1 sigma=1., sigma_mean= 0.
precision是 0 digit after decimal point.
报成sigma_mean= 0.1是错的




所有跟贴:


加跟贴

笔名: 密码: 注册笔名请按这里

标题:

内容: (BBCode使用说明