งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

Latency เวลาทำงานโดยนับจากเริ่มขอข้อมูล จนถึงได้รับข้อมูล bit แรก.

งานนำเสนอที่คล้ายกัน


งานนำเสนอเรื่อง: "Latency เวลาทำงานโดยนับจากเริ่มขอข้อมูล จนถึงได้รับข้อมูล bit แรก."— ใบสำเนางานนำเสนอ:

1

2

3 Latency เวลาทำงานโดยนับจากเริ่มขอข้อมูล จนถึงได้รับข้อมูล bit แรก

4 Cache เป็นหน่วยความจำที่เก็บข้อมูลที่จะถูกเรียกใช้บ่อยโดย CPU ซึ่งเป็นหน่วยความจำขนาดเล็กความเร็วสูง ที่อยู่ใกล้กับ CPU โดยจะเป็นการเก็บข้อมูลบางส่วนจาก memory เป็นเก็บ ข้อมูลซ้ำบน cache ซึ่งจากการทำงานของ Processor ร้องขอข้อมูลจาก memory เพื่อ นำมาคำนวณ แต่แทนที่ระบบจะลงไปทำการหาข้อมูลที่ memory เลย แต่จะทำการมองหาข้อมูลตัวนั้นใน cache ก่อน ถ้าหาเจอเรา จะเรียกว่า cache hit และถ้าหาไม่เจอเราจะเรียกว่า cache miss

5 ในกรณี cache miss ระบบจะทำการไปดึงข้อมูลจาก memory ขึ้นมาเก็บไว้ใน cache โดยใช้การดึงแบบ ดึงขึ้นมาเป็น block โดยแทนที่จะดึงมาค่าเดียวแต่ใช้การดึงค่าข้างเคียงข้อมูลนั้น ขึ้นมาด้วย (Spatial Locality [Temporal locality]) โดยการดึง block ข้อมูลขึ้นมาบน cache ใช้การติดต่อ 1 ครั้ง จึง ทำให้มีการใช้เทคนิคนี้ในการเพิ่มปริมาณข้อมูลที่จะดึงขึ้นมา เรียกว่า memory interleaving

6

7 memory cache

8 Direct Mapping(many-to-one) เอา block จาก memory มาใส่ยัง cache โดยมีตำแหน่งที่แน่นอน ตามวิธีการนี้ i = incoming block number j = cache block number N = number of cache block

9 ข้อดี - เป็นวิธีการที่ง่าย ข้อเสีย - ถึงแม้จะมีที่ว่างแต่ก็เอาข้อมูลลง Cache ไม่ได้ ทำให้ โอกาศเกิด cache miss สูง

10 Fully Associative Mapping การนำ block ข้อมูลมาใส่ยังที่ว่าง ภายใน cache โดยไม่มีการระบุตำแหน่งที่เฉพาะเจาะจง ว่าง ตรงไหนลงตรงนั้น ข้อดี - เป็นวิธีการที่สามารถใช้ cache อย่างมีประสิทธิภาพ ไม่มี ข้อจำกัด ผูกมัดกับตำแหน่งที่อยู่ ข้อเสีย - ต้องการระบบที่มีประสิทธิภาพในการค้นหา ข้อมูลใน cache

11 Set –Associative Mapping ใช้แนวความคิดแบ่ง cache ออกเป็น ส่วนย่อย (set) โดยในแต่ละ set จะประกอบด้วย block หลายๆ block ทำให้มีประสิทธิภาพในการหาข้อมูลบน cache เนื่องจากจะ เป็นการ หาข้อมูลเฉพาะ set S = number of sets in cache i = main memory block number s = specific cache sets to which block I maps

12 ในการที่จะเอาค่าออกจาก cache มีด้วยกัน 3 วิธี Random selection FIFO (first-in-first-out) LRU (least recently used) เป็นวิธีที่มีประสิทธิภาพมาก เพราะใช้การเก็บ ค่าสถิติ เป็นตัวบอก

13 เป็นหน่วยความจำหลัก ภายในระบบ computer ที่ทำหน้าที่ส่ง ข้อมูลที่จะใช้ในการคำนวณไปให้ยัง CPU โดย memory มี องค์ประกอบภายในของการเก็บข้อมูลเรียกว่า cell โดยเรียงตัว กันเป็นแนว row และ column

14 เป็นระบบการทำงานร่วมกันระหว่าง memory และ hard disk เพื่อ ทำการสร้างตำแหน่งของ memory ให้มีขนาดใหญ่ขึ้นมากกว่า ตำแหน่ง memory จริงของอุปกรณ์ โดยข้อมูลที่ถูกส่งไปมาระหว่าง hard disk และ memory เราจะ เรียกว่า page ซึ่ง page ประกอบด้วย words( 1 word = 2 byte = 16 bit) โดยเมื่อ processor ต้องการข้อมูล word ภายใน page ระบบจะ ทำการส่ง page นั้นขึ้นไปที่ MM (main memory) และจะเกิด page fault เมื่อ page ที่มี word ที่ processor ต้องการไม่อยู่บน MM จึงทำให้ต้องไปดึงค่า page นั้นมาจาก hard disk ซึ่งในการ ทำงานนี้จะเป็นหน้าที่ของ OS (operating system)

15 ซึ่งถ้าเกิดกรณี page fault(1000 times) ขึ้นมาจะมีการ penalty ที่ มากกว่าความผิดพลาดของ cache miss(5-10 times) เนื่องจาก ความเร็วในการทำงานของอุปกรณ์ address ที่เป็นของ virtual memory เราจะเรียกว่า virtual address หรือ logical address โดยที่จะมี MMU(memory management unit) มาจัดการคอยแปลงค่าจาก virtual memory ไป ให้สอดคล้องกับ physical address ซึ่งมีเทคนิคในการแปลง 3 เทคนิคดังนี้ Direct mapping Associative mapping Set-Associative mapping ( โดยทั้ง วิธีจะมีการใช้ page table เป็นตารางเก็บค่าความสัมพันธ์ระหว่าง MM location กับ virtual page ซึ่งจะเก็บตารางนี้ไว้ใน MM)

16 วิธีนี้ virtual address จะประกอบด้วย 2 ส่วน virtual page number และ offset fields ถ้าในกรณีที่จำนวน bit ใน page number เท่ากับ N จะทำให้เรามี page table เก็บค่า real page number ขนาด 2 N โดยมีหลักการทำงานถ้า processor ต้องการข้อมูล จะทำการเช็ต กับตาราง page table ก่อนว่ามีค่านั้นอยู่บน MM หรือไม่ ถ้ามีก็ ทำการแปลงค่าให้เป็น physical address เพื่อส่งต่อไปให้ processor แต่ ถ้า page fault ตัว MMU จะทำการไปดึงค่ามาจาก hard disk ขึ้นไปที่ MM ข้อดี – ง่าย ข้อเสีย – page table ขนาดใหญ่

17

18 เทคนิคนี้คล้ายคลึงกับ direct mapping โดยมีระบบ virtual address 2 ส่วนเหมือนกัน virtual page และ offset fields โดยมี page table ขนาดสั้นกว่า direct mapping โดยมีค่าที่เก็บ 2 ส่วน คือ virtual page number และ physical page number ข้อดี – มี page tables ขนาดสั้น ข้อเสีย – ต้องมีระบบ search

19

20 มีระบบ virtual address 3 ส่วน tag, index และ offset โดยที่ page table จะถูกแบ่งออกเป็นส่วนๆ (set) โดยจะเก็บค่า tag และ physical address ซึ่งค่า index ของ virtual address จะเป็นตัวระบุ set ของ page table ดังนั้นถ้ามี จำนวน bit ใน index field เท่ากับ s จะมีจำนวน set ของ page table เท่ากับ 2 S เป็นระบบที่ ทำงานได้มีประสิทธิภาพ และได้ขนาด page table ที่เหมาะสม

21

22 เป็นวิธีการที่ใช้การเก็บบางส่วนของ page table ที่ใช้บ่อยๆ เอาไว้ใน processor chip เพื่อให้สะดวกและรวดเร็วในการค้นหา ข้อมูล

23 Random Replacement First-In-First-Out(FIFO) Replacement Least Recently Used(LRU) Replacement Clock Replacement Algorithm[First-In-Not-Used-First- Out(FINUFO) ]

24 เป็นวิธรการ replace ที่ต้องมี pointer เอาไว้ชี้ page ที่พึ่งถูกเรียก ขึ้นมาบน MM และ used bit บอกสถานะการใช้งานของ page นั้นๆ

25

26


ดาวน์โหลด ppt Latency เวลาทำงานโดยนับจากเริ่มขอข้อมูล จนถึงได้รับข้อมูล bit แรก.

งานนำเสนอที่คล้ายกัน


Ads by Google