งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

Platform Technology หน่วยความจำแคช Cache memory. เนื้อหา Introduction to cache memory Hit rate/Miss rate Write Policy Replacement algorithm Mapping function.

งานนำเสนอที่คล้ายกัน


งานนำเสนอเรื่อง: "Platform Technology หน่วยความจำแคช Cache memory. เนื้อหา Introduction to cache memory Hit rate/Miss rate Write Policy Replacement algorithm Mapping function."— ใบสำเนางานนำเสนอ:

1 Platform Technology หน่วยความจำแคช Cache memory

2 เนื้อหา Introduction to cache memory Hit rate/Miss rate Write Policy Replacement algorithm Mapping function

3 W HAT IS C ACHE MEMORY A high speed memory closely connected to the processor

4 M ULTILEVEL CACHE

5 ทำไมต้อง CACHE MEMORY ? หน่วยความจำหลักทำงานได้ช้ามากเมื่อเทียบกับซีพียู ก๊อปปี้ค่าในหน่วยความจำหลักมาใส่ในแคชก่อนแล้วค่อย ให้ซีพียูอ้างถึงหน่วยความจำแคชด้วยความเร็วสูง โปรแกรมส่วนใหญ่เมื่อใช้หน่วยความจำตำแหน่งหนึ่งแล้ว มักจะอ่านค่าหน่วยความจำตำแหน่งนั้นๆ อีกหลายๆ ครั้ง (locality of reference)

6 L OCALITY OF REFERENCE :E XAMPLE void main (void) { int table[1024]; for (i= 0; i<100000; i++) k = i % 26; c = table[k] printf(“%d”,c); }

7 นิยามต่างๆ ของ C ACHE Hit : โพรเซสเซอร์พบข้อมูลในแคช Miss : โพรเซสเซอร์ไม่พบข้อมูลในแคช Hit rate จำนวนครั้งที่พบข้อมูลในแคช จำนวนการแอกเซสหน่วยความจำแคช ทั้งหมด

8 W RITE POLICY Write back เขียนข้อมูลลงในแคชเท่านั้น แล้วค่อยไป เขียนลงหน่วยความจำหลักหลังยกเลิกการใช้ แคชบล๊อกนั้นๆ ประสิทธิภาพสูง - ไม่เหมาะกับระบบ มัลติโพรเซสเซอร์ Write through ทุกครั้งที่เขียนข้อมูลในแคช ให้เขียนข้อมูล ลงในหน่วยความจำหลักด้วย ประสิทธิภาพต่ำกว่า แต่สามารถใช้กับระบบ มัลติโพรเซสเซอร์ได้

9 M ULTIPROCESSOR

10 U NIFIED VS S EPARATED CACHE Unified cache Keeping both program and data More simple and higher hit rate Separate cache Keeps program in code cache Keeps data in data cache Suitable for Von-Neuman architecture

11 U NIFIED CACHE

12 S EPARATED CACHE

13 V ON -N EUMANN ARCHITECTURE AND C ACHE

14 P ENTIUM P RO CACHE

15 R EPLACEMENT ALGORITHM แคชมีขนาดเล็ก เมื่อเทียบกับหน่วยความจำหลัก ต้องเอาของเก่าออกจากแคชเพื่อใส่ข้อมูลที่ต้องการ Least Recently used (LRU) Least Frequently Used (LFU) First-in-First-Out (FIFO)

16 C ACHE MAPPING Direct mapping Fully associative mapping Set associative mapping

17 D IRECT MAPPING ง่ายต่อการสร้าง ใช้จำนวนบิตของ tag field น้อย บล๊อก 0, 128, 256, …, 3968 ไม่สามารถอยู่ใน หน่วยความจำพร้อมๆ กันได้

18 D IRECT MAPPING

19

20

21 F ULLY ASSOCIATIVE MAPPING หน่วยความจำบล๊อกใดๆ ก็ตามสามารถอยู่ในแคชตำแหน่ง ใดก็ได้ สิ้นเปลืองจำนวนเกทในการสร้างสูงมาก จำนวนบิตที่ต้องการใน tag field มีจำนวนมาก

22 F ULLY ASSOCIATIVE MAPPING

23

24 S ET - ASSOCIATIVE MAPPING จับข้อดีของ Fully-associative และ Direct mapped มารวมกัน สามารถออกแบบให้มีหลาย way ที่สามารถเก็บข้อมูล

25 2- WAY S ET ASSOCIATIVE MAPPED

26

27 4- WAY SET ASSOCIATIVE MAPPED

28

29 P ROCESSOR CACHE COMPARISON

30 C ACHE OF I NTEL C ELERON

31

32 C ACHE OF AMD A THLON

33

34 H OMEWORK จงออกแบบหน่วยความจำแคชของโพรเซสเซอร์ที่สามารถ อ้างหน่วยความจำได้ 64 กิโลไบต์ โดยกำหนดให้ หน่วยความจำแคชมีขนาด 512 ไบต์ จงออกแบบหน่วยความจำแคชในรูปแบบต่อไปนี้ Direct mapped Fully associative 2-way set associative 4-way set associative


ดาวน์โหลด ppt Platform Technology หน่วยความจำแคช Cache memory. เนื้อหา Introduction to cache memory Hit rate/Miss rate Write Policy Replacement algorithm Mapping function.

งานนำเสนอที่คล้ายกัน


Ads by Google