เรื่องหนึ่งที่โปรแกรมเมอร์มือใหม่มักจะไม่ระวังกันคือ การใช้ค่าเลขทศนิยมในคอมพิวเตอร์นั้นเป็นฐานสอง ซึ่งไม่ตรงตัวกับการใช้เลขทศนิยมในฐานสิบทั่วๆ ไป ในการเขียนโปรแกรมหนึ่งๆ ที่มีการเปรียบเทียบค่าเลขทศนิยมจึงอาจจะดูดีในการทดสอบ เช่นว่า
print (0.05 + 0.05 == 0.1)
True
เมื่อการทำงานในขั้นต้นทำงานดี โปรแกรมเมอร์อาจจะเชื่อว่าส่วนนี้ทำงานถูกต้องดี จนกระทั่งการทำงานในแบบที่คล้ายๆ กันมีการทำซ้ำจำนวนมากๆ เช่น
d1 = 0.0
for i in range(1000):
d1 += 0.0001
print repr(d1)
1.0000000000000007
print (d1 == 1.0)
False
ถึงตอนนี้โปรแกรมก็เริ่มทำงานไม่เป็นไปตามที่เราคิด และโปรแกรมเมอร์จำนวนมากก็เริ่มกุมขมับว่าทำไมมันไม่เวิร์ค ขณะที่โปรแกรมเมอร์อีกกลุ่มหนึ่งที่เข้าใจปัญหานี้ดี ก็ต้องใช้เทคนิคสารพัดเพื่อที่จะแปลงการปัดค่าทศนิยมอย่างนี้ให้ถูกต้อง
ใน Python 2.4 เป็นต้นมา มีการอิมพลีเมนต์เอกสาร PEP-327 ซึ่งเป็นสเปคของเลขทศนิยมฐานสิบ ที่ทำงานในส่วนนี้ได้ถูกต้องกว่า อย่างในตัวอย่างต่อไปนี้
dec1 = Decimal("0.0");
for i in range(1000):
dec1 += Decimal("0.001")
print repr(dec1)
Decimal("1.000")
print (dec1 == Decimal("1.0"))
True
เท่านี้เราก็จะได้การทำงานที่เป็นไปตามคาดโดยไม่ต้องกังวลความไม่แน่นอนของโปรแกรมอีกต่อไป
แล้ว Java แก้ปัญหานี้ยังไงเหรอครับ ?
แล้วมึงไปเขียน python แต่เมื่อไร ไม่เห็นรู้
ไปหามาแล้วครับ Java เขาใช้ BigDecimal
import java.math.BigDecimal;
public class DecimalTest
{
public static void main(String[] args)
{
BigDecimal d = new BigDecimal(0.0);
for (int i = 0; i
๋Jman – ขอบคุณครับ ที่เอาแบ่งกัน พอดีผมไม่เขียน java เลยไม่รู้จะตอบยังไงเหมือนกัน