Pozdrav svima, imam jedno možda malo specifično pitanje. Naime, zanima me maksimalna moguća teorijska tačnost koja može da se ostvari upotrebom x64 arhitekture. Teorija kaže da su računari jako loši u radu sa jako malim brojevima, posebno kada se govori o deljenju malih brojeva.
Wikipedija kaže za Float64:
Citat:The 53-bit significand precision gives from 15 to 17 significant decimal digits precision (2E−53 ≈ 1.11E−16). If a decimal string with at most 15 significant digits is converted to IEEE 754 double-precision representation, and then converted back to a decimal string with the same number of digits, the final result should match the original string.
...pri čemu cenim da se to odnosi na značajne cifre radije nego na udaljenost od decimalnog separatora.
Međutim, prilikom izračunavanja sledeće funkcije:
Citat:o=sum(x.^2);
...uz upotrebu Matlab-a, tj. Octave (koji ne verujem da koriste Float64) za tačno određeni skup od 30 promenljivih, dobija se rezultat 9.95E-97. Da li taj rezultat ima smisla uzimajući u obzir grešku i moguću preciznost?
|