ดาวน์โหลดงานนำเสนอ
งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ
1
CPE 332 Computer Engineering Mathematics II
Part II, Chapter 4 Probability Cont.; Statistical Average Intro to Chapter 5: Random Process Concept
2
Today Topics HW 4 Due/ HW5 Due Next Week PDF Expectation Joint Density
Correlation/Covariance Random Process Stationary Ergodic
3
Conditional Probability
Probability ของ Event หนึ่ง เมื่อกำหนดให้ อีก Event หนึ่งได้เกิดขึ้น Probability จะเพิ่มถ้าสอง Event เกี่ยวข้องกัน Probability จะไม่เปลี่ยนถ้าสอง Event ไม่เกี่ยวกัน เราเรียกว่าเป็น Statistical Independent นอกจากนี้
4
ความหมายของ P[AB]
5
Bayes Rule E1 E3 E6 A E9 E2 E4 E7 E8 E5
6
Properties
7
Example 1 ในการส่งข้อมูลแบบ Digital เป็น Frame ขนาด 50 บิต การส่งจะสมบูรณ์ได้ก็ต่อเมื่อทั้ง Frame ไปถึงอย่างถูกต้อง ถ้าการเกิด Error ในแต่ละบิตของการส่ง(BER = Bit Error Rate) มีโอกาสจะผิดพลาดได้เท่ากับ 1/1000 จงหาว่า Frame ที่ส่งจะมี Error เฉลี่ยแล้วกี่เปอร์เซ็นต์ (FER = Frame Error Rate) ถ้าการเกิด Error แต่ละ Bit เป็น Independent
8
Example 2 จากสถิติ พบว่าโอกาสที่นักศึกษาชายจะสอบผ่านวิชา CPE332 มีค่าเท่ากับ 0.5 และโอกาสที่นักศึกษาหญิงจะสอบผ่านมีค่าเท่ากับ 0.4 ถ้าวิชา CPE332 เทอมนี้มีนักเรียนชาย 40 คนและนักเรียนหญิง 25 คน จงหาว่าเฉลี่ยแล้วจะมีนักเรียนตกกี่คน สามารถคำนวนโดยใช้ค่าถ่วงน้ำหนัก ให้ Sample Space ประกอบด้วยนักเรียนชาย(M) และนักเรียนหญิง(F) ดังนั้น S = {M,F} สังเกตุว่า Set ทั้งสองเป็น ME คือ Sample Space ถูก Partition เป็นสอง Partition P[M]=40/65 และ P[F]=25/65 ให้ Event A เป็นเหตุการณ์ที่นักศึกษาจะสอบผ่าน เราได้ P[A\M]=0.5 และ P[A\F]=0.4 จากสมการการ Partition
9
Sample Space = นักเรียนทั้งหมด 65 คน เป็นประชากร
ขยายความ Ex2 Sample Space = นักเรียนทั้งหมด 65 คน เป็นประชากร
10
2. ต้องการหา P[FA]=P[FA]
Example3 ต่อจากตัวอย่างที่ 2: ถ้าเราสุ่มตัวอย่างนักศึกษามาหนึ่งคนที่ลงวิชา CPE332 เมื่อเทอมที่แล้ว จากนั้นถามว่านักศึกษาผ่านวิชานี้หรือไม่ นักศึกษาผู้นั้นตอบว่าสอบผ่านแล้ว จงคำนวณว่า 1.โอกาสที่นักศึกษาผู้นั้นจะเป็นผู้หญิงเท่ากับเท่าไร 2. Probability ที่นักศึกษาสอบผ่านและเป็นผู้หญิงมีเท่าไร 1. ต้องการหา P[F\A] 2. ต้องการหา P[FA]=P[FA]
11
Random Variables Mapping ผลลัพธ์เป็นตัวเลข (One-to-One) ดังนั้นผลการทดลองสามารถไปคำนวณต่อได้ ที่สำคัญคือค่าเฉลี่ยทางสถิติ Mean Variance Etc. และกราฟแสดงคุณสมบัติ Probability Cumulative Distribution Function (CDF) Probability Density Function (PDF) เมื่อผลลัพธ์ของการทดลอง(Sample Space)ได้ Infinite Set เราได้ Continuous Random Variable เมื่อผลลัพธ์เป็น Finite Set การกำหนดจะใช้ Set ของตัวเลข มักจะเป็น Integer เราได้ Discrete Random Variable
12
CDF:Cumulative Distribution Function of RV X
FX(x) 1.0 FX (10) = P[X ≤ 10] x x = 10 CDF of Normal (Gaussian) Distribution: Continuous
13
CDF Properties
14
CDF การทอยเหรียญ: Discrete RV
ให้ “หัว”= 0 และ “ก้อย” = 1 FX(x) = P(X ≤ x) 1.0 0.5 x 1
15
PDF: Probability Density Function
f(x) Area = ∫f(x)dx = 1 x PDF of Normal(Gaussian) Distribution : Continuous
16
Properties of PDF
17
Discrete Version ค่าของ Variable ไม่ต่อเนื่อง F(x) = P(X≤x)
RV X มีค่าเฉพาะที่ X=xi F(x) = P(X≤x) Function นี้มีความต่อเนื่องด้านขวามือ นิยามสำหรับทุกจุดใน Domain ของ x Function เป็นลักษณะขั้นบรรได Monotonic Increasing Function จาก 0 ถึง 1 f(xi) = P(X = xi) นิยามเฉพาะจุด ไม่ต่อเนื่อง ค่าเป็นศูนย์ระหว่างนั้น บางทีเรียก Probability Mass Function ∑f(xi)=1 เสมอ
18
f(x) PMF x F(x) CDF x
19
Statistical Average
20
Importance Expectation
21
Note: ในกรณีของ Data ที่ได้จากการสุ่มตัวอย่าง เราได้เฉพาะค่า Estimate ของ Mean และ Mean Square เท่านั้น และ
22
Multivariate: RV มากกว่า 1 ตัว
จุดประสงค์ในการศึกษา RV มากกว่าหนึ่งตัวพร้อมๆกัน เพื่อจะหาความสัมพันธ์ระหว่าง RV แสดงโดยกราฟ Joint PDF หรือค่าเฉลี่ยทางสถิติ Correlation และ Covariance ในชั้นนี้จะกล่าวเฉพาะกรณีของ Bivariate เป็นการศึกษาความสัมพันธ์ระหว่าง RV สองตัว คือ X และ Y แต่ละตัวอาจเป็น Discrete หรือ continuous เช่นความสัมพันธ์ระหว่างส่วนสูงและอายุ หรือความสัมพันธ์ระหว่างคะแนน Midterm และเกรดปลายเทอม หรือความสัมพันธ์ระหว่าง GPA กับเงินเดือนที่ได้เมื่อจบการศึกษา คุณสมบัติแสดงได้ด้วย Jointed PDF(Density) 𝑓 𝑋,𝑌 𝑥,𝑦 ซึ่งต่างจาก Marginal Density, 𝑓 𝑋 𝑥 และ 𝑓 𝑌 (𝑦)
23
Bivariate RV และ Joint Density
𝐹 𝑋𝑌 𝑥,𝑦 =𝑃 𝑋<𝑥,𝑌<𝑦 ;และ 𝑓 𝑋𝑌 𝑥,𝑦 = −∞ 𝑥 −∞ 𝑦 𝐹 𝑋𝑌 𝑥,𝑦 𝑑𝑦𝑑𝑥
24
Bivariate RV และ Joint Density
25
Joint CDF/Marginal Density
26
Joint Moment
27
Correlation G(x,y) = XY
28
Covarience (Central Moment)
29
Correlation and Covarience
30
การประมาณค่า Rxy และ Cxy จาก Samples
เราเก็บตัวอย่างเป็นคู่ (xi,yi) จำนวน N คู่ Probability ของการได้แต่ละตัวอย่างเท่ากัน คือ 1/N ดังนั้น และ
31
EX.จงหา Rxy และ Cxy จากตัวอย่างในตารางข้างล่าง
ข้อมูลจากชายไทย อายุระหว่าง 12 – 30 ปี X=อายุ และ Y=ส่วนสูง No.(i) xi yi 1 20 178 7 12 168 2 25 176 8 18 156 3 19 163 9 26 174 4 21 184 10 171 5 30 180 11 24 182 6 16 165 17 179
32
Scatter Diagram
33
Calculation Table
34
PDF ที่สำคัญ P[X=x] P[X<=x] 1.0 q p x 1
35
Binomial Distribution
b(k;10,0.5) b(k;10,0.2)
36
Geometric Distribution
P=0.5 P=0.2
37
Uniform Distribution f(x) 1/(b-a) x a b
38
Gaussian Distribution
39
Gaussian Area = 1
40
Jointly Gaussian: X, Y
41
P = 0 Volumn = 1
42
P = 0.5
43
P = 0.9
44
P = 0.95
45
P = -0.99
46
Exponential Distribution
47
Exponential Distribution
Area = 1
48
Poisson Distribution
49
Lambda = 1
50
Lambda = 3
51
Lambda = 5
52
Lambda = 8
53
Lambda = 12
54
Lambda = 18
55
Break After Break Chapter 5 Random Process
56
CHAPTER V: Random Process
Random Process เป็นการขยายความต่อจาก Random Variable มันคือ Function ของ Random Variable ที่สำคัญคือ Function กับเวลา บางทีเรียก Time Series หรือ Stochastic Process ถ้า X เป็น Random Variable มีคุณสมบัติทางสถิติแสดงด้วย PDF 𝑓 𝑋 (𝑥) รวมถึงค่าทางสถิติเช่น 𝜇 𝑋 , 𝜎 𝑋 𝑋 𝑡 จะเป็น 𝑅𝑎𝑛𝑑𝑜𝑚 𝑃𝑟𝑜𝑐𝑒𝑠𝑠 มี 𝑃𝐷𝐹 𝑓 𝑋 𝑡 𝑥,𝑡 รวมถึงค่าทางสถิติเช่น 𝜇 𝑋 𝑡 𝑡 และ 𝜎 𝑋 𝑡 (𝑡)
57
Random Process เมื่อ Random Variable เป็น Function กับเวลา
สัญญาณที่มีลักษณะ Random เช่น Noise การส่ง Packet ใน Network จำนวนรถที่วิ่งบนถนน จำนวนลูกค้าที่เข้ามาใช้บริการ ในแต่ละเวลาหนึ่งๆ ค่าของมันจะมีลักษณะเป็น Random คือมี PDF ตามแต่ชนิดของมัน ที่เวลาต่างกัน PDF อาจจะเปลี่ยน และค่าทางสถิติจะเปลี่ยนตาม PDF จะเป็น Function กับเวลาด้วย Random Variable ที่เป็น Function (Random Function หรือ Analytic Function) กับเวลา เราเรียก Random Process หรือ Stochastic Process จาก RV X จะเป็น X(t) และ 𝑓 𝑋 (𝑥)→ 𝑓 𝑋 (𝑥,𝑡) Mean และ Variance จะเป็น Function กับเวลาด้วย, 𝑚 𝑋 (𝑡)/ 𝜇 𝑋 𝑡 , 𝜎 𝑋 2 (𝑡) การวิเคราะห์จะซับซ้อนกว่า RV
58
Random Process (Stochastic Process)
59
Statistical Average 2
62
Sample Function: Ensemble Average and Time Average
63
Sample Function and Ensemble
Time Average time Ensemble Average Ensemble Average
64
Correlation และ Covariance
Correlation และ Covariance แสดงความสัมพันธ์ระหว่าง Random Variable 2 ตัว ในกรณีนี้ที่เวลาใดเวลาหนึ่ง เราสามารถกล่าวได้ว่า Random Process เป็น Random Variable 𝑋 𝑡 1 , 𝑋 𝑡 2 ,…, 𝑋 𝑡 𝑛 𝑌 𝑡 1 , 𝑌 𝑡 2 ,…, 𝑌 𝑡 𝑛 ความสัมพันธ์ของ Random Process กับตัวมันเองที่เวลาต่างกัน เรียก Autocorrelation/Autocovariance ความสัมพันธ์ของ Random Process สองตัวที่เวลาต่างกันเรียก Cross-Correlation/Cross-Covariance
65
Auto/Cross Correlation(Covariance)
ในกรณีที่ Random Process เป็น Zero Mean ค่า Correlation และ Covariance คืออันเดียวกัน ดังนั้นเราจะใช้เฉพาะ Correlation ถ้าเป็นความสัมพันธ์ของ RP กับตัวมันเองที่เวลาต่างกัน เรียก Autocorrelation 𝑹 𝑿𝑿 𝒕 𝟏 , 𝒕 𝟐 = 𝑹 𝑿 𝒕 𝟏 , 𝒕 𝟐 =𝑬[𝑿 𝒕 𝟏 𝑿 𝒕 𝟐 ] ถ้าเป็นความสัมพันธ์ของ RP สองตัวที่เวลาต่างๆ เราเรียก Cross Correlation 𝑹 𝑿𝒀 𝒕 𝟏 , 𝒕 𝟐 =𝑬[𝑿 𝒕 𝟏 𝒀 𝒕 𝟐 ]
66
Statistical Average: จากนิยามของCorrelation/Covariance
𝑅 𝑋𝑌 =𝐸[𝑋𝑌] 𝐶 𝑋𝑌 =𝐸 𝑋− 𝜇 𝑋 𝑌− 𝜇 𝑌 = 𝑅 𝑋𝑌 − 𝜇 𝑋 𝜇 𝑌 ปกติเราจะใช้แค่ค่า Correlation(ถือว่า RP มีค่าเฉลี่ยเป็นศูนย์)
67
Concept ของ Stationary และ Ergodic
ในขั้นต้น และเพื่อให้ง่ายต่อการศึกษา เราจะสมมติว่า Random Process ของเรามีคุณสมบัติพิเศษสองข้อดังนี้ 1. สมมุติว่า Random Process ที่จะศึกษาเป็น Stationary คือค่าทางสถิติของมันคงที่ ไม่เปลี่ยนไปกับเวลา(แม้ว่าตัวมันเองจะเป็น Function กับเวลาก็ตาม) จะทำให้เราลดการศึกษาลงเพียงแค่เวลาใดเวลาหนึ่งก็พอ(Ensemble Average) เราได้ข้อมูลเพียงพอของทั้ง Random Process 2. สมมุติว่า Random Process ที่จะศึกษาเป็น Ergodic
68
Concept ของ Stationary และ Ergodic
ในขั้นต้น และเพื่อให้ง่ายต่อการศึกษา เราจะสมมติว่า Random Process ของเรามีคุณสมบัติพิเศษสองข้อดังนี้ 1. สมมุติว่า Random Process ที่จะศึกษาเป็น Stationary 2. สมมุติว่า Random Process ที่จะศึกษาเป็น Ergodic หมายความว่าค่าเฉลี่ยตาม Ensemble จะเท่ากับค่าเฉลี่ยตามเวลา(Ensemble Average = Time Average) ด้วยคุณสมบัติข้อสองนี้ ทำให้เราลดการศึกษาเหลือแค่ Sample Function เพียงหนึ่งตัว จะได้ข้อมูลของทั้ง Random Process
69
ขยายความเรื่องของ Stationary
เฉพาะค่าทางสถิติเท่านั้นที่คงที่ แต่ตัว Function ของ X(t) ยังเป็นค่า Random ที่เวลาต่างๆ หมายถึง X(ti) ที่ค่า ti แต่ละเวลาถือว่าเป็น RV แต่ละตัวที่มีสถิติเหมือนกัน ถ้าเฉพาะสอง Moment แรกคงที่ (Mean และ Variance/Mean Square) ส่วน Moment ที่สูงกว่านี้ เราไม่สนใจ เรียก Wide Sense Stationary(WSS) ถ้าทุก Moment คงที่(คือ PDF ไม่เปลี่ยนไปกับเวลา) เราเรียก Strict Sense Stationary(SSS) ในขั้นต้น เราสนใจแค่กรณีของ WSS เท่านั้น
70
ขยายความเรื่องของ Stationary
ในขั้นต้น เราสนใจแค่กรณีของ WSS เท่านั้น ดังนั้นเราได้ 𝝁 𝑿 𝒕 𝟏 = 𝝁 𝑿 𝒕 𝟐 = 𝝁 𝑿 𝒕 𝒊 = 𝝁 𝑿 𝝈 𝑿 𝟐 𝒕 𝟏 = 𝝈 𝑿 𝟐 𝒕 𝟐 = 𝝈 𝑿 𝟐 𝒕 𝒊 = 𝝈 𝑿 𝟐 รวมถึง Mean Square และ Standard Deviation
71
ขยายความเรื่องของ Ergodic
สำหรับสัญญาณ Random ค่าเฉลี่ยในทางเวลาคือค่า DC และค่าเฉลี่ยของกำลังสองของสัญญาณในทางเวลาคือค่า Power Concept ของ Ergodic บ่งบอกความสัมพันธ์ของค่าเหล่านี้กับค่า Mean และ Mean SQ./Variance และเช่นเดียวกัน เราสนใจเฉพาะกรณี Mean Ergodic และ Correlation Ergodic(Variance) ส่วนค่าเฉลี่ยในแกนเวลาแบบอื่นๆ เราไม่สนใจว่าจะมีคุณสมบัติ Ergodic หรือไม่
72
WIDE SENSE STATIONARY t2-t1 t1 t2
73
Autocorrelation(WSS)
Peak=Power Even
74
สรุปค่า Correlation สำหรับ RP ที่เป็น Stationary
Autocorrelation 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑋( 𝑡 1 ) 𝑋( 𝑡 2 )] 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 = 𝑅 𝑋𝑋 𝑡 2 − 𝑡 1 = 𝑅 𝑋𝑋 𝜏 = 𝑅 𝑋 𝜏 = 𝑅 𝑋 −𝜏 ; 𝜏= 𝑡 2 − 𝑡 1 Cross Correlation 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑋( 𝑡 1 ) 𝑌( 𝑡 2 )] 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 = 𝑅 𝑋𝑌 𝑡 2 − 𝑡 1 = 𝑅 𝑋𝑌 𝜏 = 𝑅 𝑌𝑋 −𝜏 ; 𝜏= 𝑡 2 − 𝑡 1
75
Discrete-Time Random Process/Time Series Analysis
76
Auto และ Cross Correlation
ถ้า RP เป็น Ergodic และ Stationary, X(t) และ Y(t) Autocorrelation (Stationary) 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑋 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝜏 ]= 𝑅 𝑋𝑋 𝜏 𝑅 𝑌𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑌 𝑡 1 ,𝑌 𝑡 2 ]= 𝐸[𝑌 0 ,𝑌 𝑡 1 − 𝑡 2 ]= 𝐸[𝑌 0 ,𝑌 𝜏 ]= 𝑅 𝑌 𝜏 Cross Correlation (Stationary) 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑌 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝜏 ]= 𝑅 𝑋𝑌 𝜏 𝑅 𝑌𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑌 𝑡 1 ,𝑋 𝑡 2 ]= 𝐸[𝑌 0 ,𝑋 𝑡 1 − 𝑡 2 ]= 𝐸[𝑌 0 ,𝑋 𝜏 ]= 𝑅 𝑌𝑋 𝜏 =𝑅 𝑋𝑌 −𝜏 Ergodic ทำให้การคำนวณค่า Correlation ลดรูปเหลือการ Integrate ของหนึ่ง Sample Function อะไรก็ได้
77
Auto และ Cross Correlation
ถ้า RP เป็น Ergodic และ Stationary, X(t) และ Y(t) Ergodic ทำให้การคำนวณค่า Correlation ลดรูปเหลือการ Integrate ของหนึ่ง Sample Function อะไรก็ได้ สมมุติเราได้ Sample Function เป็น 𝑥 𝑡 และ 𝑦(𝑡) Autocorrelation (Stationary, Ergodic) 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑋 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝜏 ]= 𝑅 𝑋𝑋 𝜏 𝑅 𝑋𝑋 𝜏 = 𝑅 𝑋 𝜏 = lim 𝑇→∞ 1 𝑇 𝑇 𝑥 𝑡 𝑥 𝑡+𝜏 𝑑𝑡 Cross Correlation (Stationary, Ergodic) 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑌 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝜏 ]= 𝑅 𝑋𝑌 𝜏 𝑅 𝑋𝑌 𝜏 = lim 𝑇→∞ 1 𝑇 𝑇 𝑥 𝑡 𝑦 𝑡+𝜏 𝑑𝑡
78
Autocorrelation และ Cross Correlation(Discrete)
ถ้า RP เป็น Ergodic และ Stationary, X(t) และ Y(t) ให้ X(n),Y(n) เป็น Random Sequence ได้จากการสุ่มตัวอย่างในอัตราคงที่ Index n = (−∞,+∞) การ Integration จะลดรูปเหลือแค่ Summation Autocorrelation 𝑅 𝑋𝑋 𝜏 → 𝑅 𝑋𝑋 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑋 𝑛 𝑋(𝑛+𝑚) 𝑅 𝑌𝑌 𝜏 → 𝑅 𝑌𝑌 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑌 𝑛 𝑌(𝑛+𝑚) Cross Correlation 𝑅 𝑋𝑌 𝜏 ⇒ 𝑅 𝑋𝑌 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑋 𝑛 𝑌(𝑛+𝑚) 𝑅 𝑌𝑋 𝜏 ⇒ 𝑅 𝑌𝑋 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑌 𝑛 𝑋(𝑛+𝑚) = 𝑅 𝑋𝑌 −𝑚 M เป็น Integer ซึ่งเป็น Index ของระยะห่างในแกนเวลาที่เป็น Discrete หรือระยะห่างเป็นจำนวนตัวอย่างในแกนเวลาของทั้งสอง
79
Discrete-Time Random Process (Limited Samples)
เมื่อสุ่มตัวอย่างแค่ N ตัวอย่าง และนำมาคำนวณหาค่า Correlation จะทำให้เกิดการ Bias เพราะการเฉลี่ยจาก N ตัวอย่างนั้นไม่ถูกต้อง
80
จำกัด Sequence ความยาว N
ค่า Autocorrelation สำหรับ N Samples สมการจะลดรูป เหลือแค่ Sum และเฉลี่ย N Point แต่จะเกิดการ Biased
81
ความหมายของ x(n)x(n+m)
82
ความหมายของ x(n)x(n+m), N Points
X(n): n=0,1,…,9 X(n+3) เราไม่ควรเฉลี่ยทั้ง N ตัว (Biased) แต่ควรเฉลี่ย 𝑵− 𝒎 ตัว (non-Biased)
83
จำกัด Sequence ความยาว N
ค่า Autocorrelation สำหรับ N Samples สมการจะลดรูป เหลือแค่ Sum และเฉลี่ย N Point แต่จะเกิดการ Biased เพราะเราเฉลี่ยน้อยกว่านั้น
84
Sequence ความยาว N / RAW
ในชั้นนี้ เมื่อคำนวณค่า Correlation เราจะหมายถึง Raw Correlation โดยยังไม่พิจารณาตัวหาร
85
Sequence ทั่วไป
86
Example: Rxx x=[1 2 3]
87
Example: Rxx x=[1 2 3]
88
Example: Rxx x=[1 2 3]
89
Example: Rxx x=[1 2 3]
90
Example: Rxx x=[1 2 3]
91
Example: Rxx x=[1 2 3]
92
Example: Rxx x=[1 2 3]
93
Example: Rxx x=[1 2 3]
94
Rxx(m) x=[1 2 3]
95
Example: Rxy x=[1 2 3], y=[ ]
96
Example: Rxy x=[1 2 3], y=[ ]
97
Example: Rxy x=[1 2 3], y=[ ]
98
Example: Rxy x=[1 2 3], y=[ ]
99
Example: Rxy x=[1 2 3], y=[ ]
100
Example: Rxy x=[1 2 3], y=[ ]
101
Example: Rxy x=[1 2 3], y=[ ]
102
Rxy(m) x=[1 2 3], y=[ ]
103
End of Week 5 Download HW 5: Probability ส่งต้นชั่วโมงสัปดาห์หน้า
งานนำเสนอที่คล้ายกัน
© 2024 SlidePlayer.in.th Inc.
All rights reserved.