Tag: 浮点精度

Excel 2013 – 大数字的准确性支持?

我正在使用Excel 2013,并在一个单元格中有: =26*25*24*23*22*21*20*19*18*17*16*15*14*13*12*11*10*9*8*7 正确的结果是: 560127029342507827200000 但是Excel显示: 560,127,029,342,508,000,000,000 这些设置是: 题: 我怎样才能让Excel显示正确的结果? Nb – 显示的精度为OFF:

Postgres小数精度VS Excel

我正在寻找在Postgres和Excel中的小数精度的任何文档。 我有一个通过excel导入的数据库。 我发现在Excel中的SUM()结果与Postgres中的SUM()方法稍有不同(通常在小数点后3位或4位,取决于我包含或排除的数据)。由于浮点精度问题,或者导入可能导致一些小的差异。

Excel如何正确评估FACT(170)/ FACT(169)?

170! 接近浮点数的极限double:171! 会溢出。 不过170! 超过300位数字 所以没有办法 ,170! 可以用浮点精确表示。 然而,Excel将返回170的正确答案! / 169 !. 为什么是这样? 我希望一些错误蔓延,但它返回一个整数值。 Excel以某种方式知道如何优化这个计算?

R和Excel之间缺乏大数据集的重复性

我在RStudio中运行R版本3.0.2,在Mac OS X中运行Excel 2011.我正在执行4组451515个值之间的分位数规范化。 是的,我知道bioconductor软件包,但我的问题是更一般的。 它可以是任何其他计算。 事情是,当我在Excel中“手工”执行计算(1)和(2)在R中从头开始编写的程序时,我得到高度相似但不完全相同的结果。 通常,(1)和(2)得到的值相差不到1.0%,有时甚至更多。 这种变化可能来自哪里,我应该知道什么R和/或Excel中的数字近似值? 这是否是因为这些程序中的任何一个程序缺乏精度? 我怎样才能避免这一点? [编辑]正如我在评论中所build议的那样,这可能是特定案例。 为了提供一些上下文,我使用9行的testing数据详细描述了下面的方法(1)和(2)。 这四个数据集称为A,B,C,D。 [编辑注释]当我在一个非常小的数据集(testing样本:9行)上执行此操作时,R和Excel中的结果没有差异。 但是,当我将相同的代码应用于实际数据(45,015行)时,R和Excel之间会有细微的差异。 我不知道为什么会这样。 (2)R代码: 数据框A Aindex A 1 2.1675e+05 2 9.2225e+03 3 2.7925e+01 4 7.5775e+02 5 8.0375e+00 6 1.3000e+03 7 8.0575e+00 8 1.5700e+02 9 8.1275e+01 dataframeB Bindex B 1 215250.000 2 10090.000 3 17.125 4 750.500 5 8.605 6 1260.000 7 […]