งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

การทำเหมืองข้อมูล (Data Mining)

งานนำเสนอที่คล้ายกัน


งานนำเสนอเรื่อง: "การทำเหมืองข้อมูล (Data Mining)"— ใบสำเนางานนำเสนอ:

1 การทำเหมืองข้อมูล (Data Mining)
322475 การทำเหมืองข้อมูล (Data Mining) บทที่ 8: การจำแนกประเภทโดยใช้กฎของเบย์ (Bayesian Learning) สอนโดย อาจารย์ วรารัตน์ รุ่งวรวุฒิ ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์มหาวิทยาลัยขอนแก่น

2 การจำแนกประเภทโดยใช้กฎของเบย์
เป็นการจำแนกประเภทโดยใช้หลักสถิติในการพยากรณ์ความน่าจะ เป็นของสมาชิก เรียกว่า ทฤษฎีของเบย์ (Bayesian theorem) เป็นการเรียนรู้เพิ่มได้ : ตัวอย่างใหม่ที่ได้มาถูกนำมาปรับเปลี่ยนการแจก แจงซึ่งมีผลต่อการเพิ่ม / ลดความน่าจะเป็น ทำให้มีการเรียนรู้ที่เปลี่ยนไป วิธีการนี้ตัวแบบจะถูกปรับเปลี่ยนไปตามตัวอย่างใหม่ที่ได้โดยผนวกกับ ความรู้เดิมที่มี การทำนายค่าคลาสเป้าหมายของตัวอย่างใช้ความน่าจะเป็นมากที่สุดของ ทุกสมมติฐาน

3 ทฤษฎีของเบย์ (Bayesian theorem)
ให้ D แทนข้อมูลที่นำมาใช้ในการคำนวณการแจกแจงความน่าจะเป็น posteriori probability ของสมมติฐาน h คือ P(h|D) ตามทฤษฎี P(h) คือ ความน่าจะเป็นก่อนหน้าของสมมติฐาน h P(D) คือ ความน่าจะเป็นก่อนหน้าของชุดข้อมูลตัวอย่าง D P(h|D) คือ ความน่าจะเป็นของ h เมื่อรู้ D P(D|h) คือ ความน่าจะเป็นของ D เมื่อรู้ h

4 ตัวอย่าง:: การพยากรณ์อากาศ
การพยากรณ์อากาศ (Weather forecast) ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ 0.008 ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการทำนายทั้งหมด (Predict-hur) แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% เช่นกัน (Predict- nohur) P(~h) = 1- P(h) P(h) + P(~h) = 1 P(hurricane) = 0.008 P(~h) P(~hurricane) = 1 – P(hurricane) = 0.992 P(h)

5 ตัวอย่าง:: การพยากรณ์อากาศ
การพยากรณ์อากาศ (Weather forecast) ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ 0.008 ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการทำนายทั้งหมด (Predict-hur) แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% เช่นกัน (Predict-nh) P(hurricane) = 0.008 P(~hurricane) = 0.992 P(hurricane) P(predict-hur | hurricane) = 0.98 P(predict-nh) = 0.02 P(predict-h) = 0.98 P(predict-nohur | hurricane) = 0.02

6 ตัวอย่าง:: การพยากรณ์อากาศ
การพยากรณ์อากาศ (Weather forecast) ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ 0.008 ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการทำนายทั้งหมด (Predict-hur) แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% (Predict-nohur) P(~hurricane) P(predict-nh) = 0.97 P(predict-h) = 0.03 P(hurricane) = 0.008 P(~hurricane) = 0.992 P(predict-h|hurricane) = 0.98 P(predict-h|~hurricane) = 0.03 P(predict-nh|hurricane) = 0.02 P(predict-nh| ~hurricane) = 0.97

7 ตัวอย่าง:: การพยากรณ์อากาศ
ถ้าสุ่มวันขึ้นมา จากทักษะที่ทอมทำนายการเกิดเฮอร์ริเคน จะเชื่อเขาหรือไม่?? ความน่าจะเป็นที่เขาทำนายถูกต้อง? ความน่าจะเป็นที่เขาทำนายผิด? P(hurricane) = 0.008 P(~hurricane) = 0.992 P(predict-h|hurricane) = 0.98 P(predict-h|~hurricane) = 0.03 P(predict-nh|hurricane) = 0.02 P(predict-nh| ~hurricane) = 0.97 P(p-h|h)P(h)‏ P(h|p-h) = = 0.98*0.008 = 0.0078 P(p-h)‏ P(p-h|~h)P(~h)‏ P(~h|p-h) = = 0.03*0.992 = 0.0298 P(p-h)‏

8 ตัวอย่าง:: มะเร็ง (Cancer)
คนไข้คนหนึ่งไปตรวจหามะเร็ง ผลการตรวจเป็นบวก(+) อยากทราบว่า เราควร วินิจฉัยโรคคนไขคนนี้ว่าเป็นมะเร็งจริงหรือไม่? ความเป็นจริง คือ ผลการตรวจเมื่อเป็นบวกจะให้ความถูกต้อง 98% กรณีที่มีโรคนั้นอยู่จริง ผลการตรวจเมื่อเป็นลบจะให้ความถูกต้อง 97% กรณีที่ไม่มีโรคนั้น 0.008 ของประชากรทั้งหมดเป็นโรคมะเร็ง จากความน่าจะเป็นข้างต้น เราจะทราบว่าความน่าจะเป็นต่อไปนี้ P(cancer) = P(~cancer) = P(+ | cancer) = P(- | cancer) = P(+ |~ cancer) = P(- |~ cancer) =

9 ตัวอย่าง:: มะเร็ง (Cancer)
เราสามารถคำนวณค่าความน่าจะเป็นของสมมติฐานว่าคนไข้เป็น / ไม่เป็น โรคมะเร็ง เมื่อทราบผลตรวจเป็นบวก โดยใช้กฎของเบย์ ดังนี้ ความน่าจะเป็นที่คนไข้คนนี้จะเป็นโรคมะเร็งเมื่อผลตรวจเป็นบวก เท่ากับ P(cancer |+) = ความน่าจะเป็นที่คนไข้คนนี้จะไม่เป็นโรคมะเร็งเมื่อผลตรวจเป็นบวก เท่ากับ P(~cancer |+) = P(+|cancer)P(cancer)‏ = P(+|~cancer)P(~cancer)‏ =

10 วิธีการเรียนรู้เบย์อย่างง่าย (Naïve Bayesian Learning)
โดยแต่ละ instance x มี n แอททริบิวต์ หรือ x= {A1, …, An} และมี Ci เป็น class label Naïve Bayes Classifier = Max (P(Ci)  P(Aj |Ci) ) P(A1,…, An) Max P’(Ci)  P’(Aj |Ci) n i=1 m j=1 C =

11 ตัวอย่าง: ผิวไหม้ (subburn)
Sample ID Hair color Eye Color Weight Apply lotion Sun burn S1 black Dark overweight No - S2 red normal + S3 Blonde light Overweight S4 Red underweight S5 Black Yes S6 S7 S8 Normal S9 S10 S11 S12 Underweight S13 S14 no

12 ตัวอย่าง: ผิวไหม้ (subburn)
Instance x = <hair color= red, eye color = dark, weight= overweight, apply lotion = no> เพราะฉะนั้น เมื่อ instance ใหม่เข้ามาถามว่า ผิวจะไหม้หรือไม่ C1 : sun burn is + : P(+).P(red|+).P(dark|+).P(overweight|+).P(apply lotion|+) C2 : sun burn is - : P(-).P(red|-).P(dark|-).P(overweight|-).P(apply lotion|-)  X belongs to class (“sunburn = -”)

13 ตัวอย่าง: เล่นเทนนิส (Play tennis)
No Strong High Mild Rain D14 Yes Weak Normal Hot Overcast D13 D12 Sunny D11 D10 Cool D9 D8 D7 D6 D5 D4 D3 D2 D1 PlayTennis Wind Humidity Temp. Outlook Day

14 ตัวอย่าง: เล่นเทนนิส (Play tennis)
ออกไปเล่นเทนนิสได้หรือไม่ New instance x = <Sunny, Cool, High, Strong> P(yes)P(sunny|yes)P(cool|yes)P(high|yes)P(strong|yes)‏ P(yes) = 9/14 = 0.64 P(sunny|yes) = 2/9 = 0.22 P(cool|yes) = 3/9 = 0.33 P(high|yes) = 3/9 = 0.33 P(strong|yes) = 3/9 = 0.33 = C = Max P’(Ci)  P’(Aj |Ci) n i=1 m j=1

15 ตัวอย่าง: เล่นเทนนิส (Play tennis)
ออกไปเล่นเทนนิสได้หรือไม่ New instance x = <Sunny, Cool, High, Strong> P(no)P(sunny|no)P(cool|no)P(high|no)P(strong|no)‏ P(no) = 5/14 = 0.36 P(sunny|no) = 3/5 = 0.6 P(cool|no) = 1/5 = 0.2 P(high|no) = 4/5 = 0.8 P(strong|no) = 3/5 = 0.6 = C = Max P’(Ci)  P’(Aj |Ci) n i=1 m j=1  New instance is “play tennis = no”

16 วิธีการเรียนรู้เบย์อย่างง่าย (Naïve Bayesian Learning)
ข้อดี ง่ายต่อการนำไปใช้ เพราะใช้การคำนวณที่ง่าย ได้ผลลัพธ์ที่สามารถนำไปประยุกต์ใช้ได้ดี ข้อเสีย ใช้ได้กับ attribute ที่เป็นอิสระกันเท่านั้น

17 ตัวจะแนกประเภทที่ดีที่สุดแบบเบย์ (Bayes Optimal Classifier)
พิจารณา จากความน่าจะเป็น 3 สมมติฐาน P(h1|D) = 0.4, P(h2|D) = 0.3, P(h3|D) = 0.3 ถ้าให้ new instance x เข้าไปถาม จะตอบว่า h1(x) = +, h2(x) = -, h3(x) = - What’s hMAP(x) ? What's most probable classification of x?

18 Bayes Optimal Classifier
ตัวอย่าง: P(h1|D) = .4, P(-|h1) = 0, P(+|h2) = 1 P(h2|D) = .3, P(-|h2) = 1, P(+|h3) = 0 P(h3|D) = .3, P(-|h3) = 1, P(+|h3) = 0, เพราะฉะนั้น hi H P(+|hi) P(hi|D) = (1*0.4)+(0*0.3)+(0*0.3) = 0.4 hi H P( -|hi) P(hi|D) = (0*0.4)+(1*0.3)+(1*0.3) =0.6 is MAP class h1 h2 h3


ดาวน์โหลด ppt การทำเหมืองข้อมูล (Data Mining)

งานนำเสนอที่คล้ายกัน


Ads by Google