CPE 332 Computer Engineering Mathematics II

Slides:



Advertisements
งานนำเสนอที่คล้ายกัน
บทที่ 7 แผนการสุ่มตัวอย่างเพื่อการยอมรับ
Advertisements

ความน่าจะเป็น Probability.
Chapter 7 Poisson’s and Laplace’s Equations
การทดสอบที (t) หัวข้อที่จะศึกษามีดังนี้
ทบทวน 1กลศาสตร์ Newton 1.1 Introduction “ระยะทาง” และ “เวลา”
สถิติที่ใช้ในการวิจัย
การเลือกตัวอย่าง อ.สมพงษ์ พันธุรัตน์.
ทฤษฏีพฤติกรรมผู้บริโภค
Chapter 4: Special Probability Distributions and Densities
Chapter 6: Sampling Distributions
Chapter 2 Probability Distributions and Probability Densities
Chapter 7: Point Estimation
Chapter 3: Expected Value of Random Variable
Chapter 8: Interval Estimation
Chapter 9: Hypothesis Testing : Theory
Chapter 10: Hypothesis Testing: Application
Probability & Statistics
Probability & Statistics
Review of Ordinary Differential Equations
Simulation Fundamentals of AMCS.
Quick Review about Probability and
CHAPTER 17 FOURIER SERIES
Inverse Laplace Transforms
คณิตศาสตร์และสถิติธุรกิจ
สมการเชิงอนุพันธ์อย่างง่าย
Object-Oriented Analysis and Design
Game Theory.
Lab 2: การใช้ MATLAB สำหรับการสร้างแบบจำลองเพื่อวิเคราะห์
Image Processing & Computer Vision
Image Processing & Computer Vision
การวิเคราะห์สหสัมพันธ์และการถดถอย
7.2 ลวดลายบนพื้นผิว (Texture)
คำศัพท์ที่น่าสนใจใน A5
Function and Their Graphs
Second-Order Circuits
ประชากร และกลุ่มตัวอย่าง
การจัดการสินค้าคงคลัง
การออกแบบการสุ่มตัวอย่าง (sampling design)
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
การวัดการกระจาย (Measures of Dispersion)
สัปดาห์ที่ 7 การแปลงลาปลาซ The Laplace Transform.
โดย อ.วัชรานนท์ จุฑาจันทร์
2 Random Signals Asst. Prof. Dr. Peerapol Yuvapoositanon, PhD, DIC
เทคนิคในการวัดความเสี่ยง
นางสาวอารมณ์ อินทร์ภูเมศร์
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
การเร่งโครงการ Expedite Project.
Week 11 Basic Programs 2.
บทที่ 4 การวัดการกระจาย
School of Information Communication Technology,
บทที่ 6 การจัดการโครงการ Project Management ญาลดา พรประเสริฐ.
Summations and Mathematical Induction Benchaporn Jantarakongkul
CPE 332 Computer Engineering Mathematics II Chapter 1 Vector.
State Diagram Wattanapong suttapak, Software Engineering,
CPE 332 Computer Engineering Mathematics II Part II, Chapter 4 Probability and Random Variable (Review)
CPE 332 Computer Engineering Mathematics II Week 3: Ch.2 Matrices Continue Ch.3 Eigenvector.
CPE 332 Computer Engineering Mathematics II Chapter 3 Eigenvector and Diagonalization.
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
บทที่ 8 ตัวแบบมาร์คอฟ.
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
CPE 332 Computer Engineering Mathematics II
ใบสำเนางานนำเสนอ:

CPE 332 Computer Engineering Mathematics II Week 6 Part II, Chapter 5 Random Process, MarKov Process

Today Topics Random Process Counting Process MarKov Process Stationary Ergodic Time Average Counting Process MarKov Process

Random Process

Sample Function and Ensemble Time Average time Ensemble Average Ensemble Average

Statistical Average 2

Statistical Average

Ensemble and Time Average ค่าเฉลี่ยในแกนเวลาสำหรับแต่ละ Sample Function ใน Random Process เราเรียก Time Average ค่าเฉลี่ยในเวลาหนึ่งๆของทุกๆ Sample Function ซึ่งคือค่าเฉลี่ยของ Sample Point สำหรับ Random Variable ของ Random Process ที่เวลาหนึ่ง เรียก Ensemble Average สองตัวนี้ไม่จำเป็นต้องเท่ากัน กรณีพิเศษที่เท่ากัน เราเรียก Random Process ว่าเป็น Ergodic

Ergodic Random Process ถ้า RP เป็น Ergodic Time Average = Ensemble Average Mean Ergodic หมายถึงค่าเฉลี่ยในทางเวลา เท่ากับค่าเฉลี่ย(mean = E(X(ti))) ของ Ensemble Correlation Ergodic หมายถึงค่า Variance ในทางเวลา เท่ากับค่า Variance ที่ได้จาก Ensemble เราใช้ควบคู่กับ Concept ของ Stationary Random Process

Stationary RP ค่าทางสถิติของ RP Process ปกติเปลี่ยนไปกับเวลา (Ensemble Average ที่เวลาต่างกัน) Mean Variance PDF สำหรับกรณีพิเศษที่ค่าเหล่านี้ของ RP คงที่ เราเรียกว่ามันเป็น Stationary Mean ของ RP เหมือนกันตลอดเวลา Variance เช่นกัน PDF คงที่ตลอดเวลา

Stationary RP Stationary RP Strict Sense Stationary (SSS) PDF ไม่เปลี่ยน ดังนั้นทุกๆ Moment (Expectation) ไม่เปลี่ยน Wide Sense Stationary (WSS) เฉพาะ 2 Moment แรกคงที่ Mean Variance (Mean Square)

WIDE SENSE STATIONARY t2-t1 t1 t2

Autocorrelation(WSS) Peak=Power Even

Discrete-Time Random Process อาจจะได้จากการสุ่มตัวอย่าง (Sampling) ของ Continuous RP เขียน

Ergodic Discrete RP ถ้า RP เป็น Ergodic ด้วยค่า Mean (Average จาก Ensemble = Average จาก Time)

Ergodic Discrete RP ถ้า RP เป็น Ergodic สำหรับ Coorelation

กรณีที่จำกัด Sequence ความยาว N

จำกัด Sequence ความยาว N ค่า Autocorrelation สำหรับ N Samples สมการจะลดรูป เหลือแค่ Sum และเฉลี่ย N Point แต่จะเกิดการ Biased

ความหมายของ x(n)x(n+m)

ความหมายของ x(n)x(n+m), N Points X(n): n=0,1,…,9 X(n+3) เราไม่ควรเฉลี่ยทั้ง N ตัว (Biased) แต่ควรเฉลี่ย N-m ตัว (non-Biased)

จำกัด Sequence ความยาว N ค่า Autocorrelation สำหรับ N Samples สมการจะลดรูป เหลือแค่ Sum และเฉลี่ย N Point แต่จะเกิดการ Biased เพราะเราเฉลี่ยน้อยกว่านั้น

Sequence ความยาว N / RAW

Sequence ทั่วไป

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Example: Rxx x=[1 2 3]

Rxx(m)

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Example: Rxy x=[1 2 3], y=[4 5 6 7]

Rxy(m)

Counting Process N(t) t

Poisson Process

Poisson Process ถ้าแต่ละเหตุการณ์ที่เกิดขึ้นเป็น Random และไม่ขึ้นต่อกัน มันจะเป็น Poisson Probability ที่จะมี k เหตุการณ์เกิดในช่วงเวลา t สามารถคำนวณได้จากสูตร ระยะเวลาระหว่างสองเหตุการณ์ที่เกิดขึ้น เรียก Inter-arrival time จะมีการกระจายแบบ Exponential ด้วยค่าเฉลี่ย 1/

Poisson Process

Birth and Death Process

State Diagram พิจารณาจากระบบ มีทั้ง Birth ด้วย Birth Rate (t) และ Death ด้วย Death Rate (t) เมื่อเราให้ระบบทำงาน ในระบบจะไม่มีอะไรอยู่ เราเรียกว่าอยู่ที่ State 0 เมื่อมีหนึ่ง Event เข้ามา หรือ Birth ระบบจะมี Event เพิ่มขึ้นและจะไปอยู่ที่ State ที่มากกว่าปัจจุบัน “หนึ่ง” เมื่อมีหนึ่ง Event จบลง (Death) ระบบจะลด State ลงหนึ่ง ค่า State ของระบบคือจำนวน Event ที่มีอยู่ในระบบ การกระโดดไปยัง State ที่สูงกว่า หรือต่ำกว่า สามารถกำหนดด้วย Probability และเขียนได้ในลักษณะของ State Diagram ถ้าระบบไม่มีการจดจำ เราเรียก Diagram นี้เป็น MarKov Model ระบบคือ MarKov Process

MarKov Process and Markov Chain

Markov Process and Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

Discrete Time Markov Chain

สรุป MarKov Chain สถานะของระบบ ดูได้จากจำนวณ Event ที่อยู่ในระบบ เรียก State ของระบบ ถ้า State เป็น Discrete เราได้ MarKov Chain มีค่า Probability สองชุดที่อธิบายการทำงานของระบบ State Probability: Probability ที่ระบบจะอยู่ที่ State ใด State หนึ่ง ผลรวมของ State Probability จะต้องเท่ากับ 1 Transition Probability: Probability ที่ระบบจะมีการเปลี่ยน State อธิบายจาก Transition Matrix ผลรวมของ Transition Probability แต่ละแถว จะต้องเท่ากับ 1 ถ้าระบบอยู่ที่ Equilibrium ค่า Probability ของ State จะไม่เปลี่ยน และสามารถอธิบายได้ด้วย Global Balance Equation MarKov Chain ที่เราสนใจคือ Irreducible และ Aperiodic

Detailed Balance Equation: Simple MarKov Chain

Markov Chain(Detailed Bal Eq) Detailed Balance Equation

Transition Matrix ของ Simple Markov Chain จะมีลักษณะเป็น Tridiagonal

Example MarKov Chain แสดงด้วย Markov Model ดังรูปข้างล่าง 1. จงหา Transition Matrix 2. จาก Transition Matrix จงคำนวณหา State Probability 0.2 0.3 0.1 0.2 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 1. จงหา Transition Matrix 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 0.2 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 1. จงหา Transition Matrix 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 0.2 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 2. จงคำนวณหา State Probability 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 2. จงคำนวณหา State Probability 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 2. จงคำนวณหา State Probability 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 2. จงคำนวณหา State Probability 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 2. จงคำนวณหา State Probability 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

Example 2. จงคำนวณหา State Probability 1 2 3 0.2 0.3 0.1 0.2 0.1 0.1 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1

สมการ System of Linear Equation แก้ได้โดยวิธี Elimination Example 2. จงคำนวณหา State Probability 0.2 0.3 0.1 0.2 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1 สมการ System of Linear Equation แก้ได้โดยวิธี Elimination

สมการ System of Linear Equation แก้ได้โดยวิธี Elimination Example 2. จงคำนวณหา State Probability 0.2 0.3 0.1 0.2 1 2 3 0.1 0.1 0.2 0.5 0.8 0.6 0.6 0.2 0.1 สมการ System of Linear Equation แก้ได้โดยวิธี Elimination

Example: Simple MarKov MarKov Chain แสดงด้วย Markov Model ดังรูปข้างล่าง 1. จงหา Transition Matrix 2. จาก Transition Matrix จงคำนวณหา State Probability 1 2 3 0.5 0.8 0.6 0.1 0.3 0.2 4 0.4

Example: Simple MarKov Transition Matrix 1 2 3 0.5 0.8 0.6 0.1 0.3 0.2 4 0.4

Example: Simple MarKov State Probability 1 2 3 0.5 0.8 0.6 0.1 0.3 0.2 4 0.4

Example: Simple MarKov State Probability

Example: Simple MarKov State Probability ใช้วิธีของ Matrix

End of Chapter 5 Next Week Chapter 6 Homework Chapter 5 Download Introduction to Queuing Theory Homework Chapter 5 Download พยายามทำให้มากที่สุด