งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

CPE 332 Computer Engineering Mathematics II

งานนำเสนอที่คล้ายกัน


งานนำเสนอเรื่อง: "CPE 332 Computer Engineering Mathematics II"— ใบสำเนางานนำเสนอ:

1 CPE 332 Computer Engineering Mathematics II
Part II, Chapter 4 Probability Cont.; Statistical Average Intro to Chapter 5: Random Process Concept

2 Today Topics HW 4 Due/ HW5 Due Next Week PDF Expectation Joint Density
Correlation/Covariance Random Process Stationary Ergodic

3 Conditional Probability
Probability ของ Event หนึ่ง เมื่อกำหนดให้ อีก Event หนึ่งได้เกิดขึ้น Probability จะเพิ่มถ้าสอง Event เกี่ยวข้องกัน Probability จะไม่เปลี่ยนถ้าสอง Event ไม่เกี่ยวกัน เราเรียกว่าเป็น Statistical Independent นอกจากนี้

4 ความหมายของ P[AB]

5 Bayes Rule E1 E3 E6 A E9 E2 E4 E7 E8 E5

6 Properties

7 Example 1 ในการส่งข้อมูลแบบ Digital เป็น Frame ขนาด 50 บิต การส่งจะสมบูรณ์ได้ก็ต่อเมื่อทั้ง Frame ไปถึงอย่างถูกต้อง ถ้าการเกิด Error ในแต่ละบิตของการส่ง(BER = Bit Error Rate) มีโอกาสจะผิดพลาดได้เท่ากับ 1/1000 จงหาว่า Frame ที่ส่งจะมี Error เฉลี่ยแล้วกี่เปอร์เซ็นต์ (FER = Frame Error Rate) ถ้าการเกิด Error แต่ละ Bit เป็น Independent

8 Example 2 จากสถิติ พบว่าโอกาสที่นักศึกษาชายจะสอบผ่านวิชา CPE332 มีค่าเท่ากับ 0.5 และโอกาสที่นักศึกษาหญิงจะสอบผ่านมีค่าเท่ากับ 0.4 ถ้าวิชา CPE332 เทอมนี้มีนักเรียนชาย 40 คนและนักเรียนหญิง 25 คน จงหาว่าเฉลี่ยแล้วจะมีนักเรียนตกกี่คน สามารถคำนวนโดยใช้ค่าถ่วงน้ำหนัก ให้ Sample Space ประกอบด้วยนักเรียนชาย(M) และนักเรียนหญิง(F) ดังนั้น S = {M,F} สังเกตุว่า Set ทั้งสองเป็น ME คือ Sample Space ถูก Partition เป็นสอง Partition P[M]=40/65 และ P[F]=25/65 ให้ Event A เป็นเหตุการณ์ที่นักศึกษาจะสอบผ่าน เราได้ P[A\M]=0.5 และ P[A\F]=0.4 จากสมการการ Partition

9 Sample Space = นักเรียนทั้งหมด 65 คน เป็นประชากร
ขยายความ Ex2 Sample Space = นักเรียนทั้งหมด 65 คน เป็นประชากร

10 2. ต้องการหา P[FA]=P[FA]
Example3 ต่อจากตัวอย่างที่ 2: ถ้าเราสุ่มตัวอย่างนักศึกษามาหนึ่งคนที่ลงวิชา CPE332 เมื่อเทอมที่แล้ว จากนั้นถามว่านักศึกษาผ่านวิชานี้หรือไม่ นักศึกษาผู้นั้นตอบว่าสอบผ่านแล้ว จงคำนวณว่า 1.โอกาสที่นักศึกษาผู้นั้นจะเป็นผู้หญิงเท่ากับเท่าไร 2. Probability ที่นักศึกษาสอบผ่านและเป็นผู้หญิงมีเท่าไร 1. ต้องการหา P[F\A] 2. ต้องการหา P[FA]=P[FA]

11 Random Variables Mapping ผลลัพธ์เป็นตัวเลข (One-to-One) ดังนั้นผลการทดลองสามารถไปคำนวณต่อได้ ที่สำคัญคือค่าเฉลี่ยทางสถิติ Mean Variance Etc. และกราฟแสดงคุณสมบัติ Probability Cumulative Distribution Function (CDF) Probability Density Function (PDF) เมื่อผลลัพธ์ของการทดลอง(Sample Space)ได้ Infinite Set เราได้ Continuous Random Variable เมื่อผลลัพธ์เป็น Finite Set การกำหนดจะใช้ Set ของตัวเลข มักจะเป็น Integer เราได้ Discrete Random Variable

12 CDF:Cumulative Distribution Function of RV X
FX(x) 1.0 FX (10) = P[X ≤ 10] x x = 10 CDF of Normal (Gaussian) Distribution: Continuous

13 CDF Properties

14 CDF การทอยเหรียญ: Discrete RV
ให้ “หัว”= 0 และ “ก้อย” = 1 FX(x) = P(X ≤ x) 1.0 0.5 x 1

15 PDF: Probability Density Function
f(x) Area = ∫f(x)dx = 1 x PDF of Normal(Gaussian) Distribution : Continuous

16 Properties of PDF

17 Discrete Version ค่าของ Variable ไม่ต่อเนื่อง F(x) = P(X≤x)
RV X มีค่าเฉพาะที่ X=xi F(x) = P(X≤x) Function นี้มีความต่อเนื่องด้านขวามือ นิยามสำหรับทุกจุดใน Domain ของ x Function เป็นลักษณะขั้นบรรได Monotonic Increasing Function จาก 0 ถึง 1 f(xi) = P(X = xi) นิยามเฉพาะจุด ไม่ต่อเนื่อง ค่าเป็นศูนย์ระหว่างนั้น บางทีเรียก Probability Mass Function ∑f(xi)=1 เสมอ

18 f(x) PMF x F(x) CDF x

19 Statistical Average

20 Importance Expectation

21 Note: ในกรณีของ Data ที่ได้จากการสุ่มตัวอย่าง เราได้เฉพาะค่า Estimate ของ Mean และ Mean Square เท่านั้น และ

22 Multivariate: RV มากกว่า 1 ตัว
จุดประสงค์ในการศึกษา RV มากกว่าหนึ่งตัวพร้อมๆกัน เพื่อจะหาความสัมพันธ์ระหว่าง RV แสดงโดยกราฟ Joint PDF หรือค่าเฉลี่ยทางสถิติ Correlation และ Covariance ในชั้นนี้จะกล่าวเฉพาะกรณีของ Bivariate เป็นการศึกษาความสัมพันธ์ระหว่าง RV สองตัว คือ X และ Y แต่ละตัวอาจเป็น Discrete หรือ continuous เช่นความสัมพันธ์ระหว่างส่วนสูงและอายุ หรือความสัมพันธ์ระหว่างคะแนน Midterm และเกรดปลายเทอม หรือความสัมพันธ์ระหว่าง GPA กับเงินเดือนที่ได้เมื่อจบการศึกษา คุณสมบัติแสดงได้ด้วย Jointed PDF(Density) 𝑓 𝑋,𝑌 𝑥,𝑦 ซึ่งต่างจาก Marginal Density, 𝑓 𝑋 𝑥 และ 𝑓 𝑌 (𝑦)

23 Bivariate RV และ Joint Density
𝐹 𝑋𝑌 𝑥,𝑦 =𝑃 𝑋<𝑥,𝑌<𝑦 ;และ 𝑓 𝑋𝑌 𝑥,𝑦 = −∞ 𝑥 −∞ 𝑦 𝐹 𝑋𝑌 𝑥,𝑦 𝑑𝑦𝑑𝑥

24 Bivariate RV และ Joint Density

25 Joint CDF/Marginal Density

26 Joint Moment

27 Correlation G(x,y) = XY

28 Covarience (Central Moment)

29 Correlation and Covarience

30 การประมาณค่า Rxy และ Cxy จาก Samples
เราเก็บตัวอย่างเป็นคู่ (xi,yi) จำนวน N คู่ Probability ของการได้แต่ละตัวอย่างเท่ากัน คือ 1/N ดังนั้น และ

31 EX.จงหา Rxy และ Cxy จากตัวอย่างในตารางข้างล่าง
ข้อมูลจากชายไทย อายุระหว่าง 12 – 30 ปี X=อายุ และ Y=ส่วนสูง No.(i) xi yi 1 20 178 7 12 168 2 25 176 8 18 156 3 19 163 9 26 174 4 21 184 10 171 5 30 180 11 24 182 6 16 165 17 179

32 Scatter Diagram

33 Calculation Table

34 PDF ที่สำคัญ P[X=x] P[X<=x] 1.0 q p x 1

35 Binomial Distribution
b(k;10,0.5) b(k;10,0.2)

36 Geometric Distribution
P=0.5 P=0.2

37 Uniform Distribution f(x) 1/(b-a) x a b

38 Gaussian Distribution

39 Gaussian Area = 1

40 Jointly Gaussian: X, Y

41 P = 0 Volumn = 1

42 P = 0.5

43 P = 0.9

44 P = 0.95

45 P = -0.99

46 Exponential Distribution

47 Exponential Distribution
Area = 1

48 Poisson Distribution

49 Lambda = 1

50 Lambda = 3

51 Lambda = 5

52 Lambda = 8

53 Lambda = 12

54 Lambda = 18

55 Break After Break Chapter 5 Random Process

56 CHAPTER V: Random Process
Random Process เป็นการขยายความต่อจาก Random Variable มันคือ Function ของ Random Variable ที่สำคัญคือ Function กับเวลา บางทีเรียก Time Series หรือ Stochastic Process ถ้า X เป็น Random Variable มีคุณสมบัติทางสถิติแสดงด้วย PDF 𝑓 𝑋 (𝑥) รวมถึงค่าทางสถิติเช่น 𝜇 𝑋 , 𝜎 𝑋 𝑋 𝑡 จะเป็น 𝑅𝑎𝑛𝑑𝑜𝑚 𝑃𝑟𝑜𝑐𝑒𝑠𝑠 มี 𝑃𝐷𝐹 𝑓 𝑋 𝑡 𝑥,𝑡 รวมถึงค่าทางสถิติเช่น 𝜇 𝑋 𝑡 𝑡 และ 𝜎 𝑋 𝑡 (𝑡)

57 Random Process เมื่อ Random Variable เป็น Function กับเวลา
สัญญาณที่มีลักษณะ Random เช่น Noise การส่ง Packet ใน Network จำนวนรถที่วิ่งบนถนน จำนวนลูกค้าที่เข้ามาใช้บริการ ในแต่ละเวลาหนึ่งๆ ค่าของมันจะมีลักษณะเป็น Random คือมี PDF ตามแต่ชนิดของมัน ที่เวลาต่างกัน PDF อาจจะเปลี่ยน และค่าทางสถิติจะเปลี่ยนตาม PDF จะเป็น Function กับเวลาด้วย Random Variable ที่เป็น Function (Random Function หรือ Analytic Function) กับเวลา เราเรียก Random Process หรือ Stochastic Process จาก RV X จะเป็น X(t) และ 𝑓 𝑋 (𝑥)→ 𝑓 𝑋 (𝑥,𝑡) Mean และ Variance จะเป็น Function กับเวลาด้วย, 𝑚 𝑋 (𝑡)/ 𝜇 𝑋 𝑡 , 𝜎 𝑋 2 (𝑡) การวิเคราะห์จะซับซ้อนกว่า RV

58 Random Process (Stochastic Process)

59 Statistical Average 2

60

61

62 Sample Function: Ensemble Average and Time Average

63 Sample Function and Ensemble
Time Average time Ensemble Average Ensemble Average

64 Correlation และ Covariance
Correlation และ Covariance แสดงความสัมพันธ์ระหว่าง Random Variable 2 ตัว ในกรณีนี้ที่เวลาใดเวลาหนึ่ง เราสามารถกล่าวได้ว่า Random Process เป็น Random Variable 𝑋 𝑡 1 , 𝑋 𝑡 2 ,…, 𝑋 𝑡 𝑛 𝑌 𝑡 1 , 𝑌 𝑡 2 ,…, 𝑌 𝑡 𝑛 ความสัมพันธ์ของ Random Process กับตัวมันเองที่เวลาต่างกัน เรียก Autocorrelation/Autocovariance ความสัมพันธ์ของ Random Process สองตัวที่เวลาต่างกันเรียก Cross-Correlation/Cross-Covariance

65 Auto/Cross Correlation(Covariance)
ในกรณีที่ Random Process เป็น Zero Mean ค่า Correlation และ Covariance คืออันเดียวกัน ดังนั้นเราจะใช้เฉพาะ Correlation ถ้าเป็นความสัมพันธ์ของ RP กับตัวมันเองที่เวลาต่างกัน เรียก Autocorrelation 𝑹 𝑿𝑿 𝒕 𝟏 , 𝒕 𝟐 = 𝑹 𝑿 𝒕 𝟏 , 𝒕 𝟐 =𝑬[𝑿 𝒕 𝟏 𝑿 𝒕 𝟐 ] ถ้าเป็นความสัมพันธ์ของ RP สองตัวที่เวลาต่างๆ เราเรียก Cross Correlation 𝑹 𝑿𝒀 𝒕 𝟏 , 𝒕 𝟐 =𝑬[𝑿 𝒕 𝟏 𝒀 𝒕 𝟐 ]

66 Statistical Average: จากนิยามของCorrelation/Covariance
𝑅 𝑋𝑌 =𝐸[𝑋𝑌] 𝐶 𝑋𝑌 =𝐸 𝑋− 𝜇 𝑋 𝑌− 𝜇 𝑌 = 𝑅 𝑋𝑌 − 𝜇 𝑋 𝜇 𝑌 ปกติเราจะใช้แค่ค่า Correlation(ถือว่า RP มีค่าเฉลี่ยเป็นศูนย์)

67 Concept ของ Stationary และ Ergodic
ในขั้นต้น และเพื่อให้ง่ายต่อการศึกษา เราจะสมมติว่า Random Process ของเรามีคุณสมบัติพิเศษสองข้อดังนี้ 1. สมมุติว่า Random Process ที่จะศึกษาเป็น Stationary คือค่าทางสถิติของมันคงที่ ไม่เปลี่ยนไปกับเวลา(แม้ว่าตัวมันเองจะเป็น Function กับเวลาก็ตาม) จะทำให้เราลดการศึกษาลงเพียงแค่เวลาใดเวลาหนึ่งก็พอ(Ensemble Average) เราได้ข้อมูลเพียงพอของทั้ง Random Process 2. สมมุติว่า Random Process ที่จะศึกษาเป็น Ergodic

68 Concept ของ Stationary และ Ergodic
ในขั้นต้น และเพื่อให้ง่ายต่อการศึกษา เราจะสมมติว่า Random Process ของเรามีคุณสมบัติพิเศษสองข้อดังนี้ 1. สมมุติว่า Random Process ที่จะศึกษาเป็น Stationary 2. สมมุติว่า Random Process ที่จะศึกษาเป็น Ergodic หมายความว่าค่าเฉลี่ยตาม Ensemble จะเท่ากับค่าเฉลี่ยตามเวลา(Ensemble Average = Time Average) ด้วยคุณสมบัติข้อสองนี้ ทำให้เราลดการศึกษาเหลือแค่ Sample Function เพียงหนึ่งตัว จะได้ข้อมูลของทั้ง Random Process

69 ขยายความเรื่องของ Stationary
เฉพาะค่าทางสถิติเท่านั้นที่คงที่ แต่ตัว Function ของ X(t) ยังเป็นค่า Random ที่เวลาต่างๆ หมายถึง X(ti) ที่ค่า ti แต่ละเวลาถือว่าเป็น RV แต่ละตัวที่มีสถิติเหมือนกัน ถ้าเฉพาะสอง Moment แรกคงที่ (Mean และ Variance/Mean Square) ส่วน Moment ที่สูงกว่านี้ เราไม่สนใจ เรียก Wide Sense Stationary(WSS) ถ้าทุก Moment คงที่(คือ PDF ไม่เปลี่ยนไปกับเวลา) เราเรียก Strict Sense Stationary(SSS) ในขั้นต้น เราสนใจแค่กรณีของ WSS เท่านั้น

70 ขยายความเรื่องของ Stationary
ในขั้นต้น เราสนใจแค่กรณีของ WSS เท่านั้น ดังนั้นเราได้ 𝝁 𝑿 𝒕 𝟏 = 𝝁 𝑿 𝒕 𝟐 = 𝝁 𝑿 𝒕 𝒊 = 𝝁 𝑿 𝝈 𝑿 𝟐 𝒕 𝟏 = 𝝈 𝑿 𝟐 𝒕 𝟐 = 𝝈 𝑿 𝟐 𝒕 𝒊 = 𝝈 𝑿 𝟐 รวมถึง Mean Square และ Standard Deviation

71 ขยายความเรื่องของ Ergodic
สำหรับสัญญาณ Random ค่าเฉลี่ยในทางเวลาคือค่า DC และค่าเฉลี่ยของกำลังสองของสัญญาณในทางเวลาคือค่า Power Concept ของ Ergodic บ่งบอกความสัมพันธ์ของค่าเหล่านี้กับค่า Mean และ Mean SQ./Variance และเช่นเดียวกัน เราสนใจเฉพาะกรณี Mean Ergodic และ Correlation Ergodic(Variance) ส่วนค่าเฉลี่ยในแกนเวลาแบบอื่นๆ เราไม่สนใจว่าจะมีคุณสมบัติ Ergodic หรือไม่

72 WIDE SENSE STATIONARY t2-t1 t1 t2

73 Autocorrelation(WSS)
Peak=Power Even

74 สรุปค่า Correlation สำหรับ RP ที่เป็น Stationary
Autocorrelation 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑋( 𝑡 1 ) 𝑋( 𝑡 2 )] 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 = 𝑅 𝑋𝑋 𝑡 2 − 𝑡 1 = 𝑅 𝑋𝑋 𝜏 = 𝑅 𝑋 𝜏 = 𝑅 𝑋 −𝜏 ; 𝜏= 𝑡 2 − 𝑡 1 Cross Correlation 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑋( 𝑡 1 ) 𝑌( 𝑡 2 )] 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 = 𝑅 𝑋𝑌 𝑡 2 − 𝑡 1 = 𝑅 𝑋𝑌 𝜏 = 𝑅 𝑌𝑋 −𝜏 ; 𝜏= 𝑡 2 − 𝑡 1

75 Discrete-Time Random Process/Time Series Analysis

76 Auto และ Cross Correlation
ถ้า RP เป็น Ergodic และ Stationary, X(t) และ Y(t) Autocorrelation (Stationary) 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑋 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝜏 ]= 𝑅 𝑋𝑋 𝜏 𝑅 𝑌𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑌 𝑡 1 ,𝑌 𝑡 2 ]= 𝐸[𝑌 0 ,𝑌 𝑡 1 − 𝑡 2 ]= 𝐸[𝑌 0 ,𝑌 𝜏 ]= 𝑅 𝑌 𝜏 Cross Correlation (Stationary) 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑌 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝜏 ]= 𝑅 𝑋𝑌 𝜏 𝑅 𝑌𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑌 𝑡 1 ,𝑋 𝑡 2 ]= 𝐸[𝑌 0 ,𝑋 𝑡 1 − 𝑡 2 ]= 𝐸[𝑌 0 ,𝑋 𝜏 ]= 𝑅 𝑌𝑋 𝜏 =𝑅 𝑋𝑌 −𝜏 Ergodic ทำให้การคำนวณค่า Correlation ลดรูปเหลือการ Integrate ของหนึ่ง Sample Function อะไรก็ได้

77 Auto และ Cross Correlation
ถ้า RP เป็น Ergodic และ Stationary, X(t) และ Y(t) Ergodic ทำให้การคำนวณค่า Correlation ลดรูปเหลือการ Integrate ของหนึ่ง Sample Function อะไรก็ได้ สมมุติเราได้ Sample Function เป็น 𝑥 𝑡 และ 𝑦(𝑡) Autocorrelation (Stationary, Ergodic) 𝑅 𝑋𝑋 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑋 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑋 𝜏 ]= 𝑅 𝑋𝑋 𝜏 𝑅 𝑋𝑋 𝜏 = 𝑅 𝑋 𝜏 = lim 𝑇→∞ 1 𝑇 𝑇 𝑥 𝑡 𝑥 𝑡+𝜏 𝑑𝑡 Cross Correlation (Stationary, Ergodic) 𝑅 𝑋𝑌 𝑡 1 , 𝑡 2 =𝐸[𝑋 𝑡 1 ,𝑌 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝑡 1 − 𝑡 2 ]= 𝐸[𝑋 0 ,𝑌 𝜏 ]= 𝑅 𝑋𝑌 𝜏 𝑅 𝑋𝑌 𝜏 = lim 𝑇→∞ 1 𝑇 𝑇 𝑥 𝑡 𝑦 𝑡+𝜏 𝑑𝑡

78 Autocorrelation และ Cross Correlation(Discrete)
ถ้า RP เป็น Ergodic และ Stationary, X(t) และ Y(t) ให้ X(n),Y(n) เป็น Random Sequence ได้จากการสุ่มตัวอย่างในอัตราคงที่ Index n = (−∞,+∞) การ Integration จะลดรูปเหลือแค่ Summation Autocorrelation 𝑅 𝑋𝑋 𝜏 → 𝑅 𝑋𝑋 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑋 𝑛 𝑋(𝑛+𝑚) 𝑅 𝑌𝑌 𝜏 → 𝑅 𝑌𝑌 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑌 𝑛 𝑌(𝑛+𝑚) Cross Correlation 𝑅 𝑋𝑌 𝜏 ⇒ 𝑅 𝑋𝑌 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑋 𝑛 𝑌(𝑛+𝑚) 𝑅 𝑌𝑋 𝜏 ⇒ 𝑅 𝑌𝑋 𝑚 = lim 𝑁→∞ 𝑁+1 𝑛=−𝑁 𝑁 𝑌 𝑛 𝑋(𝑛+𝑚) = 𝑅 𝑋𝑌 −𝑚 M เป็น Integer ซึ่งเป็น Index ของระยะห่างในแกนเวลาที่เป็น Discrete หรือระยะห่างเป็นจำนวนตัวอย่างในแกนเวลาของทั้งสอง

79 Discrete-Time Random Process (Limited Samples)
เมื่อสุ่มตัวอย่างแค่ N ตัวอย่าง และนำมาคำนวณหาค่า Correlation จะทำให้เกิดการ Bias เพราะการเฉลี่ยจาก N ตัวอย่างนั้นไม่ถูกต้อง

80 จำกัด Sequence ความยาว N
ค่า Autocorrelation สำหรับ N Samples สมการจะลดรูป เหลือแค่ Sum และเฉลี่ย N Point แต่จะเกิดการ Biased

81 ความหมายของ x(n)x(n+m)

82 ความหมายของ x(n)x(n+m), N Points
X(n): n=0,1,…,9 X(n+3) เราไม่ควรเฉลี่ยทั้ง N ตัว (Biased) แต่ควรเฉลี่ย 𝑵− 𝒎 ตัว (non-Biased)

83 จำกัด Sequence ความยาว N
ค่า Autocorrelation สำหรับ N Samples สมการจะลดรูป เหลือแค่ Sum และเฉลี่ย N Point แต่จะเกิดการ Biased เพราะเราเฉลี่ยน้อยกว่านั้น

84 Sequence ความยาว N / RAW
ในชั้นนี้ เมื่อคำนวณค่า Correlation เราจะหมายถึง Raw Correlation โดยยังไม่พิจารณาตัวหาร

85 Sequence ทั่วไป

86 Example: Rxx x=[1 2 3]

87 Example: Rxx x=[1 2 3]

88 Example: Rxx x=[1 2 3]

89 Example: Rxx x=[1 2 3]

90 Example: Rxx x=[1 2 3]

91 Example: Rxx x=[1 2 3]

92 Example: Rxx x=[1 2 3]

93 Example: Rxx x=[1 2 3]

94 Rxx(m) x=[1 2 3]

95 Example: Rxy x=[1 2 3], y=[ ]

96 Example: Rxy x=[1 2 3], y=[ ]

97 Example: Rxy x=[1 2 3], y=[ ]

98 Example: Rxy x=[1 2 3], y=[ ]

99 Example: Rxy x=[1 2 3], y=[ ]

100 Example: Rxy x=[1 2 3], y=[ ]

101 Example: Rxy x=[1 2 3], y=[ ]

102 Rxy(m) x=[1 2 3], y=[ ]

103 End of Week 5 Download HW 5: Probability ส่งต้นชั่วโมงสัปดาห์หน้า


ดาวน์โหลด ppt CPE 332 Computer Engineering Mathematics II

งานนำเสนอที่คล้ายกัน


Ads by Google