งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

งานนำเสนอกำลังจะดาวน์โหลด โปรดรอ

1 322 756 Data Mining Dr. Wararat Rungworawut 322475 การทำเหมืองข้อมูล (Data Mining) สอนโดย อาจารย์ วรารัตน์ รุ่งวรวุฒิ ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์

งานนำเสนอที่คล้ายกัน


งานนำเสนอเรื่อง: "1 322 756 Data Mining Dr. Wararat Rungworawut 322475 การทำเหมืองข้อมูล (Data Mining) สอนโดย อาจารย์ วรารัตน์ รุ่งวรวุฒิ ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์"— ใบสำเนางานนำเสนอ:

1 Data Mining Dr. Wararat Rungworawut การทำเหมืองข้อมูล (Data Mining) สอนโดย อาจารย์ วรารัตน์ รุ่งวรวุฒิ ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์ มหาวิทยาลัยขอนแก่น บทที่ 8: การจำแนกประเภทโดยใช้กฎของเบย์ (Bayesian Learning)

2 Data Mining การจำแนกประเภทโดยใช้กฎของเบย์  เป็นการจำแนกประเภทโดยใช้หลักสถิติใน การพยากรณ์ความน่าจะเป็นของสมาชิก  เรียกว่า ทฤษฎีของเบย์ (Bayesian theorem)  เป็นการเรียนรู้เพิ่มได้ : ตัวอย่างใหม่ที่ได้มาถูก นำมาปรับเปลี่ยนการแจกแจงซึ่งมีผลต่อการเพิ่ม / ลดความน่าจะเป็น ทำให้มีการเรียนรู้ที่เปลี่ยนไป วิธีการนี้ตัวแบบจะถูกปรับเปลี่ยนไปตามตัวอย่าง ใหม่ที่ได้โดยผนวกกับความรู้เดิมที่มี  การทำนายค่าคลาสเป้าหมายของตัวอย่างใช้ ความน่าจะเป็นมากที่สุดของทุกสมมติฐาน

3 Data Mining ทฤษฎีของเบย์ (Bayesian theorem)  ให้ D แทนข้อมูลที่นำมาใช้ในการคำนวณการแจก แจงความน่าจะเป็น posteriori probability ของ สมมติฐาน h คือ P(h|D) ตามทฤษฎี P(h) คือ ความน่าจะเป็นก่อนหน้าของสมมติฐาน h P(D) คือ ความน่าจะเป็นก่อนหน้าของชุดข้อมูล ตัวอย่าง D P(h|D) คือ ความน่าจะเป็นของ h เมื่อรู้ D P(D|h) คือ ความน่าจะเป็นของ D เมื่อรู้ h

4 Data Mining ตัวอย่าง :: การพยากรณ์อากาศ  การพยากรณ์อากาศ (Weather forecast)  ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ  ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการ ทำนายทั้งหมด (Predict-hur)  แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% เช่นกัน (Predict-nohur) P(hurricane) = P(~hurricane) = 1 – P(hurricane) = P(~h) P(h) P(~h) = 1- P(h) P(h) + P(~h) = 1

5 Data Mining ตัวอย่าง :: การพยากรณ์อากาศ  การพยากรณ์อากาศ (Weather forecast)  ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ  ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการ ทำนายทั้งหมด (Predict-hur)  แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% เช่นกัน (Predict-nh) P(hurricane) = P(predict-hur | hurricane) = 0.98 P(predict-nohur | hurricane) = 0.02 P(~hurricane) = P(hurricane) P(predict-h) = 0.98 P(predict-nh) = 0.02

6 Data Mining ตัวอย่าง :: การพยากรณ์อากาศ  การพยากรณ์อากาศ (Weather forecast)  ความน่าจะเป็นที่เกิดเฮอร์ริเคนในชิคาโก้ คือ  ทอมมีทักษะในการพยากรณ์ถูกต้องประมาณ 98% ของการ ทำนายทั้งหมด (Predict-hur)  แต่ทอมก็มีการทำนายถูกว่าไม่เกิดเฮอร์ริเคนถูกต้อง 97% (Predict-nohur) P(hurricane) = P(predict-h|hurricane) = 0.98 P(predict-nh|hurricane) = 0.02 P(~hurricane) = P(predict-h|~hurricane) = 0.03 P(predict-nh| ~hurricane) = 0.97 P(~hurricane) P(predict-h) = 0.03 P(predict-nh) = 0.97

7 Data Mining ตัวอย่าง :: การพยากรณ์อากาศ  ถ้าสุ่มวันขึ้นมา จากทักษะที่ทอมทำนายการเกิดเฮอร์ริเคน จะ เชื่อเขาหรือไม่ ??  ความน่าจะเป็นที่เขาทำนายถูกต้อง ?  ความน่าจะเป็นที่เขาทำนายผิด ? P(p-h|h)P(h)‏ P(p-h)‏ P(h|p-h) = 0.98* == P(hurricane) = P(predict-h|hurricane) = 0.98 P(predict-nh|hurricane) = 0.02 P(~hurricane) = P(predict-h|~hurricane) = 0.03 P(predict-nh| ~hurricane) = 0.97 P(p-h|~h)P(~h)‏ P(p-h)‏ P(~h|p-h) = 0.03* = = 

8 Data Mining ตัวอย่าง :: มะเร็ง (Cancer)  คนไข้คนหนึ่งไปตรวจหามะเร็ง ผลการตรวจเป็นบวก (+) อยากทราบว่า เราควรวินิจฉัยโรคคนไขคนนี้ว่าเป็นมะเร็ง จริงหรือไม่ ? ความเป็นจริง คือ  ผลการตรวจเมื่อเป็นบวกจะให้ความถูกต้อง 98% กรณีที่มี โรคนั้นอยู่จริง  ผลการตรวจเมื่อเป็นลบจะให้ความถูกต้อง 97% กรณีที่ไม่มี โรคนั้น  ของประชากรทั้งหมดเป็นโรคมะเร็ง  จากความน่าจะเป็นข้างต้น เราจะทราบว่าความน่าจะเป็น ต่อไปนี้ P(cancer) = P(~cancer) = P(+ | cancer) = P(- | cancer) = P(+ |~ cancer) = P(- |~ cancer) =

9 Data Mining ตัวอย่าง :: มะเร็ง (Cancer)  เราสามารถคำนวณค่าความน่าจะเป็นของสมมติฐาน ว่าคนไข้เป็น / ไม่เป็นโรคมะเร็ง เมื่อทราบผลตรวจ เป็นบวก โดยใช้กฎของเบย์ ดังนี้ ความน่าจะเป็นที่คนไข้คนนี้จะเป็นโรคมะเร็งเมื่อผลตรวจเป็น บวก เท่ากับ P(cancer |+) = ความน่าจะเป็นที่คนไข้คนนี้จะไม่เป็นโรคมะเร็งเมื่อผลตรวจเป็น บวก เท่ากับ P(~cancer |+) = P(+|cancer)P(cancer)‏ = P(+|~cancer)P(~cancer)‏ =

10 Data Mining วิธีการเรียนรู้เบย์อย่างง่าย (Naïve Bayesian Learning)  วิธีการของ Naïve Bayesian คือการใช้วิธีการของเบย์ พร้อมสมมติฐานของการเป็นอิสระต่อกันของตัวแปร อิสระทุกตัว  โดยแต่ละ instance x มี n แอททริบิวต์ หรือ x= {A1, …, An} และมี Ci เป็น class label Naïve Bayes Classifier = Max (P(C i )  P(A j |C i ) ) P(A 1,…, A n ) C = Max P’(C i )  P’(A j |C i ) n i=1 m j=1

11 Data Mining ตัวอย่าง : ผิวไหม้ (subburn) Sample ID Hair colorEye ColorWeightApply lotionSun burn S1blackDarkoverweightNo- S2redDarknormalNo+ S3BlondelightOverweightNo+ S4RedlightunderweightNo+ S5BlackDarkOverweightYes- S6BlondeDarkOverweightNo+ S7RedlightunderweightYes- S8BlackDarkNormalNo- S9BlondeDarkNormalYes+ S10RedlightNormalYes+ S11BlacklightNormalYes+ S12BlondelightUnderweightNo+ S13RedDarkNormalYes- S14blacklightunderweightno+

12 Data Mining ตัวอย่าง : ผิวไหม้ (subburn)  Instance x = เพราะฉะนั้น เมื่อ instance ใหม่เข้ามาถามว่า ผิวจะไหม้ หรือไม่  C 1 : sun burn is + : P(+).P(red|+).P(dark|+).P(overweight|+).P(apply lotion|+)  C 2 : sun burn is - : P(-).P(red|-).P(dark|-).P(overweight|-).P(apply lotion|-)  X belongs to class (“sunburn = -”)

13 Data Mining ตัวอย่าง : เล่นเทนนิส (Play tennis)

14 Data Mining ตัวอย่าง : เล่นเทนนิส (Play tennis)  ออกไปเล่นเทนนิสได้หรือไม่  New instance x =  P(yes)P(sunny|yes)P(cool|yes)P(high|yes)P(strong|yes)‏ P(yes) = 9/14 = 0.64 P(sunny|yes) = 2/9 = 0.22 P(cool|yes) = 3/9 = 0.33 P(high|yes) = 3/9 = 0.33 P(strong|yes) = 3/9 = 0.33  = C = Max P’(C i )  P’(A j |C i ) n i=1 m j=1

15 Data Mining ตัวอย่าง : เล่นเทนนิส (Play tennis)  ออกไปเล่นเทนนิสได้หรือไม่  New instance x = P(no)P(sunny|no)P(cool|no)P(high|no)P(strong|no)‏ P(no) = 5/14 = 0.36 P(sunny|no) = 3/5 = 0.6 P(cool|no) = 1/5 = 0.2 P(high|no) = 4/5 = 0.8 P(strong|no) = 3/5 = 0.6 = C = Max P’(C i )  P’(A j |C i ) n i=1 m j=1  New instance is “play tennis = no”

16 Data Mining วิธีการเรียนรู้เบย์อย่างง่าย (Naïve Bayesian Learning)  ข้อดี  ง่ายต่อการนำไปใช้ เพราะใช้การคำนวณที่ ง่าย  ได้ผลลัพธ์ที่สามารถนำไปประยุกต์ใช้ได้ดี  ข้อเสีย  ใช้ได้กับ attribute ที่เป็นอิสระกันเท่านั้น

17 Data Mining ตัวจะแนกประเภทที่ดีที่สุดแบบเบย์ (Bayes Optimal Classifier)  พิจารณา  จากความน่าจะเป็น 3 สมมติฐาน P(h1|D) = 0.4, P(h2|D) = 0.3, P(h3|D) = 0.3  ถ้าให้ new instance x เข้าไปถาม จะตอบว่า h1(x) = +, h2(x) = -, h3(x) = -  What’s h MAP (x) ?  What's most probable classification of x?

18 Data Mining Bayes Optimal Classifier  ตัวอย่าง :  P(h1|D) =.4, P(-|h1) = 0, P(+|h2) = 1  P(h2|D) =.3, P(-|h2) = 1, P(+|h3) = 0  P(h3|D) =.3, P(-|h3) = 1, P(+|h3) = 0,  เพราะฉะนั้น   hi  H P(+|hi) P(hi|D) = (1*0.4)+(0*0.3)+(0*0.3) = 0.4   hi  H P( -|hi) P(hi|D) = (0*0.4)+(1*0.3)+(1*0.3) =0.6 is MAP class h1h2 h3


ดาวน์โหลด ppt 1 322 756 Data Mining Dr. Wararat Rungworawut 322475 การทำเหมืองข้อมูล (Data Mining) สอนโดย อาจารย์ วรารัตน์ รุ่งวรวุฒิ ภาควิชาวิทยาการคอมพิวเตอร์ คณะวิทยาศาสตร์

งานนำเสนอที่คล้ายกัน


Ads by Google